Bit

Col·laboració de Natàlia Arroyo per al capítol Càlculs lògics

Avui dia, la paraula bit és àmpliament coneguda per la gran majoria d’usuaris informàtics. Segurament, però, sabem exactament d’on neix i què significa exactament.

En la natura, la informació es transmet per mitjans analògics. La transmissió analògica de la informació està formada per ones i camps electromagnètics, és a dir, senyals continus que tenen fluctuacions graduals. Els mitjans analògics d’emmagatzemar informació reprodueixen el principi d’ones i camps electromagnètics. Es tracta de mitjans analògics artificials amb els quals podem emmagatzemar, copiar i processar la informació.

La informació dels ordinadors, en canvi, és digital, és a dir, representada per nombres (dígits). L’accés a la informació en els mitjans analògics artificials (igual que en la natura) és lineal, és a dir, es recupera del principi a la fi. Els mitjans digitals permeten recuperar la informació de manera no lineal o aleatòria. També permeten amb molta més facilitat i qualitat processar (manipular) la informació: ordenar-la, distorsionar-la, combinar-la, etc. D’aquí, d’aquestes possibilitats de millora que els sistemes digitals ofereixen en relació a les limitacions dels analògics, s’extreu la raó principal per la qual estem en ple procés de digitaltzació de tot, per tal d’optimitzar tots els recursos de temps i espai.

La característica principal de l’ordinador és la seva capacitat per representar símbols de tot tipus (textual/numèrics, gràfics, sonors, visuals) mitjançant nombres o dígits. Per això, del llenguatge que utilitzen els ordinadors, en diem digital.

En la vida quotidiana la informació s’expressa, des del punt de vista alfabètic, en un idioma determinat, i des del punt de vista numèric, en el sistema decimal. Els ordinadors, però, treballen amb el sistema binari.

Els circuits electrònics de l’ordinador reconeixen senyals elèctrics de tipus digital, és a dir, la presència de senyal elèctric equival a 1 i la absència de senyal elèctric a 0. Dels llenguatges de 0 i 1 en diem sistema digital binari.

Per tant, l’ordinador treballa tota l’estona amb aquests dos dígits o nombres i per això diem que és una màquina digital. De cada dígit, de cada un dels zeros i uns que componen aquest llenguatge en diem bit (BInary digiT, digit binari). L’ús d’aquesta nomenclatura ve de Claude Shannon.

És a The Mathematical Theory of Communications on apareix per primer cop el terme “bit”, contracció de binary unit, per parlar de la quantitat d’informació d’una font que emet missatges binaris de forma equiprobable. Aquí també s’explica com la quantitat d’informació d’una font de missatges es pot mesurar fent servir el concepte d’entropia i demostra que aquesta magnitud és un límit fonamental en la representació de la citada informació.

Juntament amb Warren Weaver, Shannon havia desenvolupat la teoria matemàtica de la comunicació, avui més coneguda com a teoria de la informació, establint els conceptes de negentropia, que es referien a que la informació redueix el desordre. La unitat de mesura en dígits binaris era justament aquest nou concepte del “bit”.

A continuació, Shannon va abordar també el problema de transmetre la informació per un canal de banda limitada que introdueixi soroll blanc gaussià i va demostrar que introduint redundància es podia aconseguir una transmissió totalment lliure d’errors sempre i quan la velocitat de transmissió no superés el que ell va anomenar capacitat del canal. Això, que és d’una actualitat sorprenent, va sorprendre als enginyers de l’època, que fin aleshores pensaven que els sistemes de comunicacions estaven condemnats a cometre errors.

Col·laboració de Natàlia Arroyo per al capítol Càlculs lògics