Entre la persona y la máquina

Fotograma del film «2001, una odisea del espacio» (Stanley Kubrick, 1968)
Lo que distingue a los humanos de sus ancestros los simios es la capacidad de crear instrumentos que facilitan su vida, esto es, la tecnología. Junto a la evolución biológica, la tecnología ha contribuído decisivamente al desarrollo de la rama de los humanos en el árbol de la vida; incluso es posible que el despertar de la conciencia —la gran novedad en la evolución— y el descubrimiento de la tecnología tuvieran lugar al mismo tiempo.
Pese a su origen ancestral, sorprende la baja estima que la cultura establecida suele tener de la tecnología, cuando es el resultado del mismo ingenio que compone sinfonías, escribe historias y piensa en abstracto. El carácter utilitario y material le resta prestigio cuando, en realidad, nada ha cambiado tanto la vida de la gente, para bien y para mal, como la tecnología y, en particular, las máquinas.
machinae
Huesos para golpear, lanzas para cazar, cuerdas para agarrar… eran las técnicas elementales de la prehistoria. Después, con la sedentarización y la agricultura surgieron instrumentos para transformar la fuerza motriz, primero humana y animal, y más adelante, hídrica y eólica: el arado, la bomba de agua, el molino de grano, etc. En este contexto se habla de máquinas; según el diccionario, «artificios para aprovechar, dirigir o regular la acción de una fuerza».
Típicamente, las máquinas se aplicaban en tareas de construcción, en el transporte de mercancías y, en particular, en la guerra; de hecho, la guerra es el gran impulsor del desarrollo de máquinas, antes, ahora y, si los defectos de los humanos persisten, siempre. De manera que, más allá de la experiencia que podía suponer para la tropa, en la antigüedad las máquinas no formaban parte de la cotidianeidad de la gente. Más allá del carromato o la muela, la gente no gozaba de sus ventajas; solo los poderosos lo hacían, sobretodo para fortalecer y engrandecer su poder.
El espíritu protocientífico de los antiguos griegos y su capacidad de aplicar la teoría a la práctica dio lugar a máquinas variadas, no solo militares. Experimentaron con la energía del vapor y la usaron, por ejemplo, en máquinas que movían estatuas religiosas ante el estupor y la consiguiente veneración de los feligreses. En el uso de la energía del vapor, los grecorromanos se adelantaron veinte siglos. También se adelantaron unos cuantos siglos a los relojes (máquinas de precisión) como demuestra el planetario/calculadora de Antikythera, cuya elaboración implica un asombroso e insospechado conocimiento de la mecánica.
Tras aquel período creativo de la historia, las religiones monoteístas se expandieron con la voluntad de paralizar —unas más que otras— el pensamiento científico-técnico en favor de verdades sobrenaturales. Su idea del trabajo como un deber más de expiación encajaba perfectamente con el poder establecido al que la mecanización del esfuerzo humano interesaba bien poco; además, había esclavos para hacerlo.
máquinas motrices
En la Edad Media, las máquinas para transformar en movimiento la energía humana, animal, eólica o hídrica funcionaban, básicamente, como las ideadas en la edad antigua; apenas hubo innovaciones técnicas.
Durante el Renacimiento, el pensamiento monolítico se resquebraja y la sociedad toma conciencia de que hay otras maneras de entender el mundo. Resurgen el interés y la curiosidad por el mundo natural, lo que abre definitivamente las puertas a la ciencia y a las ideas alejadas de mitos.
A ello contribuirá, en el siglo XVIII, el marco filosófico impulsado por una serie de científicos encabezada por Isaac Newton, los cuales, basándose en la observación y el razonamiento, conciben el Universo como un reloj, como una máquina colosal que obedece las leyes de la mecánica, las mismas que rigen nuestro planeta.
Poco después, el inventor Thomas Newcomen construye la primera máquina de vapor y, a continuación, James Watt la aplica en la construcción de la primera locomotora de tren. Las máquinas de vapor, con la locomotora como icono, poblaron entonces el mundo y, literalmente, lo transformaron durante la llamada revolución industrial, que implicó grandes cambios económicos y sociales.
Conforme aumentaba de potencia de la locomotora, la cabina de control —la interfaz— del conductor se fue haciendo más complicada, poblada de manómetros, interruptores, válvulas…
Después se inventaron otro tipo de máquinas motrices, como las de combustión interna, más eficientes y menos voluminosas. En su aplicación al automóvil, la interfaz para su manejo es muy sencilla —pedales a los pies y volante a las manos— de manera que puede ser usada por cualquier persona, de ahí su éxito prácticamente inmediato.
La revolución industrial culmina con la electrificación, gracias a la cual la energía creada por máquinas se hace disponible en cualquier lugar para alimentar otras máquinas. Además, automóviles, aviones, ascensores, electrodomésticos… forman parte de la vida cotidiana, y se crea una cultura en la que la máquina parece desprenderse de su estigma utilitario e incluso es ensalzada como motivo artístico y de modernidad. Son las años 1920-1930, la llamada «era de la máquina».
Las dos guerras mundiales dieron un impulso extraordinario a las máquinas, en particular, a las máquinas de destruir por tierra, mar y aire. Se inventaron las máquinas más diabólicas, capaces de provocar, operadas por personas mediante las correspondientes interfases, la destrucción más extrema. Nunca las máquinas habían causado tanto horror; esta idea planea sobre la historia contemporánea y pone de relieve la ominosa realidad de la tecnología como amplificadora de la muerte.
En aquel tiempo surgió la ciencia de la automatización y, en particular, la cibernética (del griego «kibernetes», timonel), dedicadas al control de los artefactos mecánico/eléctricos y a cómo relacionarse con ellos. Era el marco teórico y filosófico adecuado para un nuevo tipo de artefacto que estaba a punto de aparecer.
máquinas de información
Unos siglos atrás, durante la edad media, proliferaron otro tipo de máquinas, los relojes, que no proporcionaban fuerza, sino información. Los relojes son los antecedentes de las calculadoras, los ingenios para realizar operaciones aritméticas. La primera calculadora se debió al filósofo Blaise Pascal. Se llamaba «pascalina» y para anunciarla decía: «Someto al público una pequeña máquina de mi invención, mediante la cual usted puede, sin ningún esfuerzo, realizar operaciones de la aritmética, y prescindir del trabajo que tantas veces ha fatigado su espíritu». Reconocida su condición laboriosa, el cálculo precisaba máquinas que lo facilitaran.
La complejidad creciente de las organizaciones impulsaron las calculadoras; primero a manivela, más adelante electrificadas. Pero tenían un inconveniente: debido a su condición mecánica, la lógica resulta muy complicada de simular y, en consecuencia, eran difíciles de programar. En el siglo XIX, hubo un intento de construir una calculadora programable —la «máquina analítica» de Charles Babbage— pero nunca llegó a realizarse. En los campos del cálculo y la información, la tecnología mecánica tenía y tiene un techo.
Al término de la segunda guerra mundial, salió a la luz el ENIAC, considerada la primera calculadora programable —la primera computadora— de la historia. Formó parte de la maquinaria de guerra, pero con un propósito indirecto: servía para calcular las trayectorias balísticas de las bombas lanzadas por la artillería.
El interfaz del ENIAC era casi tan grande como la propia máquina. Los datos se introducían mediante tarjetas perforadas —un invento del siglo XVIII procedente de la industria textil— y los resultados se recogían en papel impreso. Lo más tedioso era introducir el programa: una serie de hombres y mujeres manejaban docenas de paneles de interruptores y cables y, cuando era necesario, reemplazaban las lámparas de vacío (unas 15.000) que se iban fundiendo. Aunque rudimentaria, costosa e insostenible, la informática empezó allí.
interfaz de usuario
Durante las dos décadas siguientes, las computadoras invadieron las grandes empresas y organizaciones hasta hacerse indispensables. Esto impulsó los avances en las ciencias de la computación y en la fabricación de computadoras a un ritmo nunca visto en otro tipo de tecnología, sobre todo, gracias al perfeccionamiento y la miniaturización de la electrónica. Pero este éxito contrastaba con la pobreza del interfaz de aquellas computadoras, que seguía consistiendo en tarjetas perforadas y papel impreso.
Ese interfaz decimonónico pasó a la historia cuando, en los años 1970, aparece la posibilidad de intercambiar números y letras mediante un teclado y una pantalla. Eso supuso una mejora considerable, en particular, para los programadores informáticos.
En los años 1970, el ingeniero Douglas Engelbart puso en marcha un sistema que constaba de una pantalla capaz de presentar imágenes —no solo textos—, así como del ratón para identificar una posición en ella. En poco tiempo, la idea se propagó por los garajes y se desarrollaron sistemas personales con interfases gráficas, mucho más prácticas y atractivas a todos los efectos.
El fenómeno dio lugar a una especialidad insólita en la relación con las máquinas; insólita porque, por primera vez, se preocupa de la persona, no solo de la (eficacia de la) máquina. La especialidad se llama «Interacción persona-computadora» (Human Computer Interaction) y su objetivo es el estudio de la «interfaz gráfica de usuario» (Graphic Computer Interface) caracterizada por el uso de elementos como ventanas, iconos y menús. Pronto quedó claro que la producción de un interactivo incluye una tarea de diseño que no puede dejarse solo en manos de informáticos.
A mediados de los 1980 aparecen los discos de gran capacidad y, en particular, los CD-ROM, que permitían acumular contenidos audiovisuales para ser librados interactivamente a una persona (fuera de línea). Se publicó una gran variedad de CD-ROM, en particular, sobre pintores, músicos, museos…, lo que despertó el primer interés por el medio interactivo por parte del mundo cultural y educativo. En unas producciones innovadoras que se vendían razonablemente bien —el CD-ROM era un objeto físico— la profesión de diseñador de interfases fue adquiriendo importancia. Pero el negocio se fue a pique cuando, a finales de los 1990 y gracias a las telecomunicaciones, los interactivos pasaron a ser objetos intangibles, gratuitos y reproducibles desde cualquier lugar del mundo. El prometedor mercado de interactivos culturales y educativos se hundió; nadie estaba dispuesto a pagar por ellos, un problema que, por cierto, continua vivo.
red de redes
Douglas Engelbart no solo inventó la interfaz gráfica y el ratón, también desarrolló el ‘hipertexto’ y la conexión entre computadoras, en definitiva, ideó los elementos primordiales de la informática personal. Solo faltaba uno: la red, la conexión entre computadoras distantes.
El primer sitio web apareció en 1991 en un servidor del CERN, obra del ingeniero Tim Berners-Lee. Después apareció Netscape, el primer programa para navegar por los sitios web. Curiosamente, para subrayar su carácter interactivo, en la página inicial del propio Netscape se informaba: «Para desplazarse, simplemente haga clic en cualquier palabra o frase de color azul o violeta». En el mundo de la comunicación, eso era toda una novedad.
La computadora personal adquiere entonces otra dimensión: no solo es una instrumento para tareas empresariales o profesionales, también es una ventana al mundo en que cada persona puede escoger dónde asomarse. Cada nueva aplicación —cada nuevo sitio web— invade un nuevo campo de conocimiento, todo es cuestión de digitalizar su contenido y desarrollar el interfaz adecuado para explorarlo.
Internet estalló con la invención del teléfono llamado «inteligente» (iPhone, 2007), que viene a ser la computadora personal, incluso íntima, por excelencia. Su interfaz en la palma de la mano permite acceder a infinidad de aplicaciones (apps) —atajos a sitios web— que la convierten en un instrumento para todo. En poco tiempo, el teléfono ha adquirido la condición que lo hace ser extraordinariamente útil a las personas y a las industrias: un interfaz de interfases.
comunicación
Se puede decir que, si hace un siglo se vivió la «era de la máquina» por la difusión y la popularidad de las máquinas analógicas, actualmente se vive la «era de la máquina digital», sobre todo porque, entre las innumerables intermediaciones de la computadora, está la comunicación interpersonal.
Un interactivo es un conjunto de textos, imágenes, vídeos y audios organizados para su exploración más o menos libre. En cuanto a los contenidos, es pues un producto audiovisual como los tradicionales —pasivos—, pero con el añadido del interfaz a través del cual un programa informático habilita la exploración. El interfaz es la faz (la cara) de ese programa; si no funciona o no invita a la interacción, el código informático, por complejo que sea, no sirve para nada.
De ahí la importancia del diseño del interfaz. En este sentido, Ted Nelson, otro pionero de la interactividad, apuntó: «La interfaz debe ser tan simple que un principiante en una emergencia pueda entenderla en un plazo de 10 segundos”. Depende, claro está, de la complejidad de la aplicación pero, tras unas décadas de comunicación interactiva (desde los CD-ROM), ha quedado claro que lo mínimo es lo mejor. Como dijo el escritor Antoine de Saint-Exupéry a propósito del diseño en general: «La perfección no se alcanza cuando no falta nada, sino cuando no sobra nada».
La aplicación más popular de la comunicación interactiva son las llamadas redes sociales, a través de las cuales se establece la comunicación directa entre personas; en este sentido, el teléfono regresa a sus orígenes. Estos sitios web, en particular, están obligados a seguir la regla del interfaz mínimo, en correspondencia con los mensajes mínimos que se intercambian.
En el otro extremo de la complejidad del interfaz están los videojuegos. En realidad, un videojuego es un interfaz dinámico: es el propio entorno sintético en el que se desarrolla el juego. Por eso los «e-games» constituyen la expresión más genuina de la comunicación interactiva.
Actualmente se llenan estadios en donde unas pantallas gigantescas reproducen para el público la experiencia de unos videojugadores que se aventuran en mundos poblados de enemigos a los que hay machacar, o en competiciones deportivas simuladas. La gente se emociona con las dianas y los derrapes, y vitorea a los campeones como si fueran estrellas de rock; en lugar de guitarra, lucen joystick. El contenido exhibido —el interfaz— suele ser muy complejo desde el punto de vista informático, pero muy trivial como experiencia narrativa. Todo consiste en tener reflejos y no hay tiempo para reflexiones. De todas maneras, también es trivial el espectáculo de 22 tipos corriendo detrás de una pelota… That’s entertainment!
hipermedia
Por mucho que los fabricantes inviten a renovarlo, el teléfono como interfaz ha alcanzado el óptimo; en cuanto al tamaño, la mano y los dedos constituyen una masa crítica que no és posible disminuir, y en cuanto a las aplicaciones, (casi) todo lo verdaderamente útil está inventado. Pero, más allá del telefonino, ¿qué se puede esperar del medio interactivo?
La evolución de los videojuegos da algunas pistas. Por ejemplo, el cuerpo entero de la persona como interfaz.
El cuerpo tiene otros miembros —no solo las manos— con los cuales interacciona con el exterior; de hecho, el cuerpo —o, si se quiere, la piel— es la interfaz de la persona con la naturaleza, de manera que parece lógico intentar simularla en favor del espectáculo o de determinadas aplicaciones. El mejor ejemplo de interfaz corporal, por cierto, no es de una máquina digital sino de una analógica, la de un piloto de carreras de motos: la cabeza, el tronco, las extremidades y la mente abrazados a la máquina para experimentar el límite de las leyes físicas.
También está la llamada realidad virtual, un oxímoron para designar la realidad simulada. El visitante se encuentra inmerso en un entorno sintético e interacciona con él. Además de simular mundos en los que se guerrea de forma (aún) más realista, la realidad virtual abre la posibilidad de entornos «de autor» y de creación libre, en donde primen las reflexiones en lugar de los reflejos.
El profeta de los media Marshall McLuhan comentó: «El artista es aquella persona que inventa el modo de hacer de puente entre la herencia biológica y los entornos creados por la innovación tecnológica». De manera que, en la era de las máquinas digitales, el artista sería un creador de interfases —puentes— con los elementos y las estrategias de los videojuegos: espacios de indagación, descubrimiento, acción y recompensa. La cultura imperante tendrá dificultades en considerar este tipo de obras como expresiones artísticas, pero es cuestión de tiempo, como lo fue el reconocimiento de la fotografía o del cine, también creados mediante tecnología. Se olvida que, como mostró el historiador Johan Huizinga, la cultura humana brota del juego y se desarrolla en el juego.
En cualquier caso, la breve historia del medio interactivo ha puesto de manifiesto sus cualidades más destacadas: permite a las personas comunicarse mucho mejor (¿cómo se habría vivido la pandemia del coronavirus sin su ayuda?), resulta idóneo para el entretenimiento (trivial y no trivial), y constituye la mejor antesala del conocimiento.