La búsqueda de cabezas de vida inteligentes bajo el agua

«No sé mucho sobre las ballenas. Nunca he visto una ballena en mi vida», dice Michael Bronstein. Este informático israelí, que enseña en el Imperial College de Londres (Inglaterra), podría no parecer el candidato ideal para un proyecto relacionado con la comunicación de los cachalotes. Pero sus habilidades como experto en aprendizaje automático podrían ser clave para un ambicioso esfuerzo que comenzó oficialmente en marzo de 2020: Un grupo interdisciplinar de científicos quiere utilizar la inteligencia artificial para descifrar el lenguaje de estos mamíferos marinos. Si el Proyecto CETI (Iniciativa de Traducción de Cetáceos) tiene éxito, sería la primera vez que realmente entendemos lo que los animales están charlando – y tal vez incluso podríamos tener una conversación con ellos.

El proyecto nació en 2017 cuando un grupo internacional de científicos pasó un año juntos en la Universidad de Harvard, en Cambridge (Massachusetts), en la Beca Radcliffe, un programa que promete «una oportunidad para alejarse de las rutinas habituales.» Un día, Shafi Goldwasser, informático israelí-estadounidense y experto en criptografía, se pasó por el despacho de David Gruber, biólogo marino de la City University de Nueva York. Goldwasser, que acababa de ser nombrada nueva directora del Instituto Simons de Teoría de la Computación de la Universidad de Berkeley, había escuchado una serie de chasquidos que le recordaban el ruido que hace un circuito electrónico defectuoso, o el código Morse. Así es como hablan los cachalotes entre sí, le dijo Gruber. «Le dije: ‘Quizá deberíamos hacer un proyecto en el que tradujéramos los sonidos de las ballenas a algo que nosotros, como humanos, pudiéramos entender'», relata Goldwasser. «Realmente lo dije como una idea de última hora. Nunca pensé que me fuera a tomar en serio».

Pero la beca fue una oportunidad para tomarse en serio las ideas descabelladas. En una cena, le presentaron la idea a Bronstein, que estaba siguiendo los recientes avances en el procesamiento del lenguaje natural (PNL), una rama de la IA que se ocupa del análisis automatizado del habla escrita y hablada -hasta ahora, sólo del lenguaje humano-. Bronstein estaba convencido de que las «codas», como se denominan los breves enunciados del cachalote, tienen una estructura que se presta a este tipo de análisis. Afortunadamente, Gruber conocía a un biólogo llamado Shane Gero que había estado grabando muchas codas de cachalote en las aguas de la isla caribeña de Dominica desde 2005. Bronstein aplicó algunos algoritmos de aprendizaje automático a los datos. «Parecían funcionar muy bien, al menos con algunas tareas relativamente sencillas», dice. Pero esto no era más que una prueba de concepto. Para un análisis más profundo, los algoritmos necesitaban más contexto y más datos: millones de codas de ballenas.

Pero, ¿tienen lenguaje los animales? La cuestión ha sido controvertida entre los científicos durante mucho tiempo. Para muchos, el lenguaje es uno de los últimos bastiones de la exclusividad humana. Los animales se comunican, pero no hablan, decía el biólogo austriaco Konrad Lorenz, uno de los pioneros de la ciencia del comportamiento animal, que escribió sobre sus propias comunicaciones con animales en su libro de 1949, El anillo del rey Salomón. «Los animales no poseen un lenguaje en el verdadero sentido de la palabra», escribió Lorenz.

«Más bien creo que aún no hemos investigado lo suficiente», replica Karsten Brensing, un biólogo marino alemán que ha escrito varios libros sobre la comunicación animal. Brensing está convencido de que las expresiones de muchos animales pueden llamarse ciertamente lenguaje. No se trata simplemente de los ladridos de los perros; se tienen que cumplir varias condiciones. «En primer lugar, el lenguaje tiene semántica», dice Brensing. «Eso significa que ciertas vocalizaciones tienen un significado fijo que no cambia». Por ejemplo, se sabe que los arrendajos siberianos, un tipo de pájaro, tienen un vocabulario de unas 25 llamadas, algunas de las cuales tienen un significado fijo.

La segunda condición es la gramática: las reglas para construir frases. Durante mucho tiempo, los científicos estaban convencidos de que la comunicación animal carecía de cualquier estructura de frases. Pero en 2016, los investigadores publicaron un estudio en Nature Communications sobre las vocalizaciones de los herrerillos. En determinadas situaciones, los pájaros combinan dos llamadas diferentes para advertirse mutuamente cuando se acerca un depredador. También reaccionaron cuando los investigadores les reprodujeron esta secuencia. Sin embargo, cuando se invierte el orden de las llamadas, las aves reaccionan mucho menos. «Eso es gramática», dice Brensing.

El tercer criterio: No se puede llamar lenguaje a las vocalizaciones de una especie animal si son completamente innatas. Lorenz creía que los animales nacían con un repertorio de expresiones y no aprendían mucho en el transcurso de su vida. «Todas las expresiones de las emociones de los animales, por ejemplo, la nota ‘Kia’ y ‘Kiaw’ del grajo, no son, por tanto, comparables a nuestro lenguaje hablado, sino sólo a aquellas expresiones, como bostezar, arrugar el entrecejo y sonreír, que se expresan inconscientemente como acciones innatas», escribió Lorenz.

Varias especies animales han demostrado ser aprendices vocales: adquieren nuevo vocabulario, desarrollan dialectos y se identifican por su nombre. Algunas aves aprenden incluso a imitar los tonos de los teléfonos móviles. Los delfines adquieren silbidos individuales que utilizan como un identificador para sí mismos, casi como un nombre.

Los chasquidos de los cachalotes son candidatos ideales para intentar descifrar el significado, no sólo porque, a diferencia de los sonidos continuos que producen otras especies de ballenas, son fáciles de traducir en unos y ceros. Estos animales se sumergen en las mayores profundidades del océano y se comunican a grandes distancias, por lo que no pueden utilizar el lenguaje corporal ni las expresiones faciales, que son importantes medios de comunicación para otros animales. «Es realista suponer que la comunicación de las ballenas es principalmente acústica», afirma Bronstein. Los cachalotes tienen el cerebro más grande del reino animal, seis veces más grande que el nuestro. Cuando dos de estos animales charlan entre sí durante un largo periodo de tiempo, ¿no deberíamos preguntarnos si tienen algo que decirse? ¿Se dan consejos sobre las mejores zonas de pesca? ¿Intercambian las madres de las ballenas historias sobre la crianza de sus hijos, como sus homólogas humanas? Merece la pena intentarlo, dicen los investigadores del CETI.

Aprender un idioma desconocido es más fácil con algo como la famosa Piedra Rosetta. Esta estela, descubierta en 1799, contiene el mismo texto en tres idiomas y fue la clave para descifrar los jeroglíficos egipcios. Por supuesto, no existe tal cosa para el reino animal. No tenemos ni un diccionario humano-ballena ni un libro con las reglas gramaticales del lenguaje del cachalote.

Pero hay formas de evitarlo. Evidentemente, los niños aprenden su lengua materna sin estas herramientas, simplemente observando el idioma que se habla a su alrededor. Los investigadores han llegado a la conclusión de que este tipo de aprendizaje es básicamente estadístico: el niño recuerda que la palabra perro se pronuncia mucho cuando ese peludo animal entra en la habitación, que ciertas palabras se usan a menudo en relación con otras, que una secuencia específica de palabras es más probable que otra. En los últimos 10 años, los métodos de aprendizaje automático han imitado este tipo de aprendizaje. Los investigadores alimentaron grandes redes neuronales con enormes cantidades de datos lingüísticos. Y esas redes pudieron encontrar estructuras en las lenguas a partir de observaciones estadísticas sin que se les dijera nada sobre el contenido.

Un ejemplo son los llamados modelos lingüísticos, de los cuales el más conocido es el GPT-3, desarrollado por la empresa OpenAI. Los modelos de lenguaje son máquinas de completar, por ejemplo, el GPT-3 recibe el principio de una frase y la completa palabra por palabra, de forma similar a las sugerencias que hacen los smartphones cuando escribimos mensajes de texto, pero mucho más sofisticadas. Al procesar estadísticamente enormes cantidades de texto extraído de Internet, los modelos lingüísticos no sólo saben qué palabras aparecen juntas con frecuencia, sino que también aprenden las reglas de composición de las frases. Crean frases que suenan correctamente, y a menudo de una calidad sorprendente. Son capaces de escribir artículos de noticias falsas sobre un tema determinado, resumir textos legales complejos en términos sencillos e incluso traducir entre dos idiomas.

Estas hazañas tienen un precio: se necesitan enormes cantidades de datos. Los programadores entrenaron la red neuronal de GPT-3 con unos 175.000 millones de palabras. En comparación, el Proyecto Cachalote de Dominica de Gero ha recogido menos de 100.000 codas de cachalote. El primer trabajo del nuevo proyecto de investigación será ampliar enormemente esa colección, con el objetivo de recoger 4.000 millones de palabras, aunque nadie sabe todavía qué es una «palabra» en el lenguaje de los cachalotes.

Si la idea de Bronstein funciona, es bastante realista desarrollar un sistema análogo a los modelos de lenguaje humano que genere expresiones de ballenas gramaticalmente correctas. El siguiente paso sería un chatbot interactivo que intentara dialogar con ballenas de vida libre. Por supuesto, nadie puede decir hoy si los animales lo aceptarían como compañero de conversación. «Tal vez se limitarían a responder: «¡Deja de decir semejante basura!». dice Bronstein.

Pero aunque la idea funcione, el inconveniente de todos los modelos lingüísticos es que no saben nada del contenido de la lengua en la que conversan. Sería lamentable que los investigadores crearan un bot que pudiera conversar con fluidez con una ballena, pero que los investigadores no pudieran entender ni una palabra. Por eso quieren anotar las grabaciones de voz con datos sobre el comportamiento de las ballenas desde el principio: dónde estaban los animales, con qué hablaban, qué ¿la reacción? El reto es encontrar una forma automatizada de realizar al menos algunos de estos millones de anotaciones.

Todavía hay que desarrollar mucha tecnología, incluidos los sensores para registrar las ballenas individuales y controlar su ubicación. Estos son necesarios para asignar claramente los sonidos individuales a un animal específico. El proyecto CETI ha solicitado con éxito cinco años de financiación al proyecto Audacious, dirigido por la organización de conferencias TED. Varias organizaciones forman parte del proyecto, entre ellas la National Geographic Society y el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT.

Los investigadores del CETI no han sido los primeros en plantear la idea de aplicar técnicas de aprendizaje automático a las lenguas de los animales. Aza Raskin, un exfísico, diseñador y empresario reconvertido en crítico de la tecnología, tuvo una idea similar allá por 2013 cuando se enteró del complicado lenguaje de los monos gelada africanos. ¿Podríamos aplicar a las vocalizaciones de los animales la tecnología de PNL desarrollada para procesar el lenguaje humano? Ayudó a fundar el Proyecto Especies de la Tierra con el objetivo de hacer precisamente eso. En aquel momento, la tecnología estaba en pañales; tuvieron que pasar otros cuatro años antes de que se convirtiera en un método de autoaprendizaje para la traducción automática entre idiomas. La técnica de incrustación de palabras pone todas las palabras de un idioma en una galaxia multidimensional en la que las palabras que se usan a menudo juntas están cerca unas de otras, y esas conexiones se representan con líneas. Por ejemplo, rey se relaciona con hombre como reina se relaciona con mujer.

Resultó que los mapas de dos lenguas humanas pueden hacerse coincidir, aunque no todas las palabras de una lengua tengan una contrapartida exacta en la otra. Hoy en día, esta técnica permite la traducción entre dos lenguas humanas en textos escritos, y pronto podría utilizarse en grabaciones de audio sin texto.

Pero, ¿es concebible que podamos superponer los mapas de una lengua humana y otra animal? Raskin está convencido de que es posible, al menos en principio. «Es casi seguro que existe algún tipo de conjunto de experiencias compartidas, especialmente con otros mamíferos. Necesitan respirar, necesitan comer, lloran a sus crías cuando mueren», dice. Al mismo tiempo, cree Raskin, habrá muchas áreas en las que los mapas no encajen. «No sé qué va a ser más fascinante: las partes en las que podemos hacer una traducción directa, o las partes en las que no hay nada que sea directamente traducible a la experiencia humana». Una vez que los animales hablen por sí mismos y podamos escuchar, dice Raskin, podríamos tener «momentos culturales realmente transformadores.»

Ciertamente, estas esperanzas se adelantan un poco a la investigación. Algunos científicos son muy escépticos sobre si la recopilación de datos del CETI contendrá algo interesante. Steven Pinker, el reconocido lingüista y autor del libro El instinto del lenguaje, ve el proyecto con bastante escepticismo. «Tendré curiosidad por ver lo que encuentran», dice. Sin embargo, tiene pocas esperanzas de que podamos encontrar contenido y estructura ricos en las codas del cachalote. «Sospecho que no habrá mucho más allá de lo que ya sabemos, es decir, que son llamadas de firma cuya semántica [are] se restringe bastante a quiénes son, quizás junto con llamadas emocionales. Si las ballenas pueden comunicar mensajes complejos, ¿por qué no vemos que lo usen para hacer cosas complejas en conjunto, como vemos en los humanos?»

Diana Reiss, investigadora del Hunter College de la CUNY, no está de acuerdo. «Si la gente nos mirara a ti y a mí ahora mismo», dice, «yo no estoy haciendo mucho, ni tú tampoco, y sin embargo estamos comunicando una gran cantidad de cosas significativas». Del mismo modo, cree que no sabemos mucho sobre lo que las ballenas podrían decirse entre sí. «Creo que podemos decir con seguridad que estamos en un estado de ignorancia en este momento», dice.

Reiss lleva años trabajando con delfines y utiliza un sencillo teclado submarino para comunicarse con ellos. Es cofundadora de un grupo, Interspecies Internet, que explora formas de comunicarse eficazmente con los animales. Entre sus cofundadores están el músico Peter Gabriel, Vinton Cerf, uno de los creadores de Internet, y Neil Gershenfeld, director del Centro de Bits y Átomos del MIT. Reiss celebra las ambiciones del CETI, especialmente su enfoque interdisciplinario.

Los investigadores del CETI admiten que su búsqueda de significados en las codas de las ballenas podría no dar lugar a nada interesante. «Entendemos que uno de nuestros mayores riesgos es que las ballenas puedan ser increíblemente aburridas», dice Gruber, el director del programa. «Pero no creemos que éste sea el caso. En mi experiencia como biólogo, siempre que mirado algo de cerca, nunca ha habido un momento en el que me hayan decepcionado los animales».

El nombre del proyecto CETI evoca al SETI, la búsqueda de inteligencia extraterrestre, que ha escaneado el cielo en busca de señales de radio de civilizaciones alienígenas desde los años 60, sin encontrar hasta ahora un solo mensaje. Dado que no se ha encontrado ninguna señal de extraterrestres, Bronstein está convencido de que debemos probar nuestras habilidades de descodificación con las señales que podemos detectar aquí en la Tierra. En lugar de apuntar nuestras antenas hacia el espacio, podemos espiar a una cultura en el océano que es, como mínimo, igual de ajena a nosotros. «Creo que es muy arrogante pensar que Homo sapiens es la única criatura inteligente y sensible de la Tierra», dice Bronstein. «Si descubrimos que hay toda una civilización básicamente delante de nuestras narices, tal vez se produzca algún cambio en la forma en que tratamos nuestro entorno. Y tal vez resulte en un mayor respeto por el mundo viviente».


Este post aparece por cortesía de Revista Hakai.