La desinformación está a punto de empeorar mucho

Desde hace años, la inteligencia artificial ha sido aclamada como salvadora y destructora. La tecnología realmente puede hacernos la vida más fácil, permitiéndonos llamar a nuestros teléfonos con un «Hola, Siri» y (lo que es más importante) ayudar a los médicos en la mesa de operaciones. Pero como cualquier lector de ciencia ficción sabe, la inteligencia artificial no es un bien absoluto: puede ser propensa a los mismos prejuicios raciales que los humanos y, como es el caso de los automóviles autónomos, puede verse obligado a determinar quién vive y quien muere. Nos guste o no, la inteligencia artificial solo se convertirá en una fuerza aún más omnipresente: estamos en un «momento decisivo» para la tecnología, dice Eric Schmidt, ex director ejecutivo de Google.

Schmidt es un elemento fijo desde hace mucho tiempo en una industria tecnológica que parece estar constantemente en un estado de agitación. Fue el primer administrador de software de Sun Microsystems, en la década de 1980, y el director ejecutivo del antiguo gigante del software Novell en la década de 1990. Se unió a Google como CEO en 2001, luego fue presidente ejecutivo de la compañía desde 2011 hasta 2017. Desde que dejó Google, Schmidt se ha centrado en la IA: en 2018, sobre la necesidad de prepararse para el boom de la IA, junto con sus coautores Henry Kissinger, el exsecretario de Estado y el decano del MIT, Daniel Huttenlocher. El trío ha seguido esa historia con La era de la IA, un libro sobre cómo la IA transformará la forma en que experimentamos el mundo, que se publicará en noviembre.

Durante el Festival del Atlántico de hoy, Schmidt habló con Adrienne LaFrance, El Atlánticoeditor ejecutivo, sobre el futuro de la IA y cómo prepararse para ello. Su conversación a continuación ha sido ligeramente editada por su extensión y claridad.


Adrienne LaFrance: Durante décadas, hemos estado esperando que la inteligencia artificial se ponga al día con nuestra imaginación. Y ahora la tecnología realmente está avanzando increíblemente rápido. ¿Cuán diferente crees que será la vida dentro de un año, dentro de cinco años, y como resultado en 10 años?

Eric Schmidt: Bueno, creemos que va a ser bastante diferente. Y la razón por la que pensamos que es bastante diferente es que este es el comienzo de una nueva época de la civilización humana. Francamente, cuando ocurrió el Renacimiento, desarrollamos colectivamente hace 500 años la noción de razón, la noción de que las cosas no solo descienden de Dios, que los actores independientes pueden criticarse entre sí. Bajo ese mismo argumento, la llegada de una inteligencia diferente que no es la vida humana, pero similar a los humanos, es un momento decisivo.

LaFrance: Entonces estás invocando la Revolución Científica, la Era de la Ilustración. Todos acabamos de vivir una triple revolución con Internet, los teléfonos inteligentes y la web social. ¿Será la revolución de la inteligencia artificial más grande que las tres?

Schmidt: Creo que será más grande, y los autores colectivamente no están de acuerdo en cuán positivo o negativo, pero articulamos estos puntos en el libro. Si miras hacia atrás hace 20 años, la gente hablaba de las redes sociales. Nadie tenía idea de que las redes sociales llegarían a ser tan importantes y darían forma al discurso político de las elecciones, cómo se trata a las personas. Le daría una voz a las personas que están subrepresentadas, pero también a las personas de las que no necesariamente queremos escuchar. Y, en ese momento, no entendíamos las implicaciones de poner a todos en la misma red. Tenemos que pensar ahora en lo que sucede cuando la inteligencia artificial es co-residente con nosotros en el mundo. Vive con nosotros; nos mira; nos ayuda, tal vez interfiere con nosotros de vez en cuando. Realmente no lo sabemos.

Te daré un buen ejemplo: si imaginas a un niño que nace hoy, le das al niño un juguete para bebé o un oso, y ese oso está habilitado para IA. Y cada año el niño recibe un juguete mejor. Cada año, el oso se vuelve más inteligente, y en una década, el niño y el oso, que son los mejores amigos, están viendo la televisión y el oso dice: «Realmente no me gusta este programa de televisión». Y el niño dice: «Sí, estoy de acuerdo contigo». ¿Qué pensamos cuando los humanos y estos sistemas de inteligencia artificial se convierten en mejores amigos? ¿Perdemos nuestras comunicaciones y nuestra calidez entre los humanos, o se vuelve más fuerte? No lo sabemos.

LaFrance: Lo estás planteando como una pregunta: ¿Qué pensamos de esto? Puedo decirte que lo encuentro ligeramente espeluznante, el ejemplo del mejor amigo del oso. ¿Le gustaría que sus hijos o nietos fueran criados con un mejor amigo de IA? ¿Eso le preocupa o le resulta emocionante?

Schmidt: Creo que mucho depende de cómo funcione realmente. Si ese mejor amigo de la IA es también el mejor maestro del mundo, el mejor mentor del mundo, la versión más cálida posible de lo que necesita un niño, entonces estoy totalmente de acuerdo. Pero imaginemos que este oso tiene un error oculto; fue insertado de una persona malvada, donde el oso es un poco racista, que es un valor al que no quiero que mi hijo esté expuesto. Eso no esta bien. O invirtamos el escenario e imaginemos que de hecho soy racista, que no lo soy, y quiero que mi oso sea racista. Y quiero programar el oso racista. No hemos descubierto cuáles son las reglas. Porque estos son sistemas que interactuarán con los humanos todos los días; tendrán un impacto enorme en su experiencia de la vida diaria.

El espacio de información, el mundo social en el que todos vivimos ahora, está gobernado por los medios en línea y, francamente, muchos de los atributos del clickbait y todo ese tipo de cosas. Es realmente inquietante. Ahora, como saben, el Dr. Kissinger escribió en 2018 un artículo que se tituló «» y seguimos con un artículo en El Atlántico llamado «.» Hemos estado trabajando en estas ideas durante un tiempo para enmarcarlas en un contexto no sobre la tecnología, que con suerte describiremos con precisión, sino sobre cómo reaccionará la sociedad ante esto, y está llegando rápido. El Dr. Kissinger dice que su preocupación es que nosotros, los tecnólogos, estamos construyendo cosas sin un registro histórico y sin una comprensión de los problemas profundos de la humanidad que estamos tocando en nuestra tecnología.

LaFrance: Usted presidió la Comisión de Seguridad Nacional de 2021 sobre IA, y una de las recomendaciones que surgió de ella fue recomendar al presidente Biden que rechazara la prohibición de los sistemas de armas autónomos. Esa recomendación va en contra de un argumento que han hecho muchos de sus compañeros. Temen un mundo en el que las armas de IA tomen decisiones de batalla que no podemos entender o explicar. Habla un poco sobre tu puesto.

Schmidt: Cuando hablo de IA, la mayoría de mis amigos piensan que estoy hablando de un robot que se ha vuelto loco y una científica mata al robot. Pero no estamos hablando de eso. De lo que estamos hablando son de sistemas de información y sistemas de conocimiento que nos acompañan todos los días. Y hoy es justo decir que esos sistemas son imprecisos. Son dinámicos porque cambian todo el tiempo. Son emergentes en el sentido de que cuando los combinas, puedes obtener comportamientos inesperados, algunos buenos, otros malos. Y son capaces de aprender. Bueno, es la combinación de esos cuatro puntos lo que hace que estos sistemas de IA sean problemáticos pero también muy poderosos. Entonces, si lo aplicas a una decisión vital, y no puedo pensar en una decisión más vital que el lanzamiento de un arma muy, muy letal, ¿cómo sabríamos que la computadora estaba tomando la decisión correcta? No podemos probarlo. Si comete errores, es un error intolerable.

Las personas que piensan que este es un problema fácil, les daré otro ejemplo. Estás en un barco y se acerca un misil que no puedes ver. Y el sistema de inteligencia artificial le informa sobre esto y dice: «Estarás muerto si no presionas este botón en 20 segundos». Ahora, la regla en el ejército es que los humanos necesitan tener el control. Y no hay duda de que el humano tiene que presionar el botón. ¿Cuáles son las probabilidades de que ese humano no presione el botón? Muy bajo. La noción de la compresión del tiempo en el contexto de estas decisiones críticas de la vida, especialmente la defensa militar, es realmente importante. Si vuelve al estudio original de RAND, se trata de la defensa automática. Y si vuelves a la película con Peter Sellers, donde amenazan con lanzar un arma nuclear y automáticamente lanza una a cambio, lo cual es una represalia, ese es un buen indicador de lo que estamos hablando. Les daré otro ejemplo: estamos colectivamente, como industria, trabajando en inteligencia general, y la inteligencia general surgirá en los próximos 10 o 20 años. Y dependiendo de cómo lo defina, esos sistemas serán enormemente poderosos, y esos sistemas serán enormemente peligrosos en las manos equivocadas. Entonces, tendrán que ser tratados de manera similar a las armas nucleares pero con una nueva doctrina, porque no entendemos la proliferación y no entendemos cómo hacer la contención con estos nuevos sistemas de armas.

LaFrance: Quiero volver a eso en un minuto, la pregunta de qué sucede con nuestras teorías de disuasión con estos nuevos tipos de armas. Pero primero el contexto geopolítico: ¿Cuál es la posición de Estados Unidos en todo esto, en relación con lo que imaginamos que podría hacer China o Rusia? Hable sobre hasta qué punto su posición de que deberíamos rechazar la prohibición de las armas autónomas se trata de asegurarse de que Estados Unidos sea fuerte en relación con otras superpotencias.

Schmidt: El argumento central que estamos haciendo es que habrá un pequeño número de países que dominarán esta tecnología. Y es importante que haya discusiones sobre cómo limitarlos. Es importante que esas discusiones sean bilaterales; el número de países que podrán trabajar en este nivel será de unos pocos. Por lo tanto, una expectativa razonable será que este tipo de sistemas, cuando finalmente surjan, estarán bajo el control de grandes gobiernos nacionales como Estados Unidos y China, y tal vez algunos otros. Creemos firmemente que las discusiones sobre dónde deberían estar los límites y las líneas deberían comenzar ahora. No queremos una situación en la que tenga que haber una explosión antes de que haya un tratado. Si se remonta a 1945, con el uso de armas nucleares en la Segunda Guerra Mundial, que la puso fin, no había en ese momento ningún tratado que prohibiera o limitara su uso. Pasamos los siguientes 15 años desarrollando los conceptos de contención, destrucción mutuamente asegurada, equilibrio de poder, etc. Necesitaremos redescubrir a aquellos en esta nueva era de armas peligrosas.

LaFrance: Con las armas nucleares, hasta ahora, afortunadamente, la disuasión ha funcionado. Pero cuando miras las armas de IA, tienes la posibilidad de asesinatos selectivos con drones llevados a cabo con extrema precisión y exactitud, y no necesariamente por naciones sino por terroristas. La naturaleza de estos ataques podría ser muy difícil de rastrear. Esto rompe todo nuestro sentido de cómo podrían funcionar la guerra y la disuasión. Entonces dices que necesitamos una doctrina o un marco, pero ¿por dónde empezamos?

Schmidt: Bueno, mucha gente cree que la mejor manera de resolver este problema es crear el equivalente a un Centro de Los Alamos, donde Estados Unidos invierte su gran gente y dinero para construir y avanzar en esta área. La pregunta es: ¿Cuánto tiempo, qué ventaja nos daría eso? En 1945 hicimos esto, y teníamos una ventaja de unos cuatro años antes de que la Unión Soviética pudiera hacer algo similar. En mi comisión de IA estimamos que la brecha entre Estados Unidos y China ya era mucho más corta. Y la razón por la que existe la brecha es porque el software y el conocimiento sobre algoritmos soberanos proliferan muy rápidamente. Entonces, con la energía nuclear, hemos tenido la capacidad de limitar la proliferación real del material fisionable real, a pesar de que el conocimiento subyacente de cómo construir un arma de este tipo se conoce ampliamente durante al menos 50 años en casi todas partes. No tenemos el equivalente del uranio-235 para restringirlo en el software; tenemos que encontrar otras formas de evitar la proliferación de las herramientas que acabas de describir en manos de todos los jugadores malvados.

LaFrance: Ya ha hablado antes de cómo es la IA aquí, no podemos deshacernos de ella, así que tenemos que averiguar cómo vivir con ella. Cuando piensas en el arco de la historia de la tecnología, ¿hay alguna tecnología que desees que podría poco inventado, uno donde los humanos estarían mejor si nunca existiera?

Schmidt: Ciertamente, las armas nucleares y las armas biológicas serían el punto de partida. Si solo usa la muerte por conflicto, hambruna, cosas así, encontraría una manera de revertir cualquier tecnología que les permitiera. I Piense que el impacto de la IA, en la forma en que lo describe, se sentirá mucho más amplio y será mucho más difícil de identificar. Les daré un buen ejemplo. Con los sistemas de inteligencia artificial, son particularmente buenos para encontrar patrones y encontrar excepciones. Y son particularmente buenos mirándote a ti y tu patrón de vida y proponiendo cosas que son útiles para ti. Entonces, por ejemplo, si conoce su historial de búsqueda, podemos sugerirle su próxima búsqueda. Si conocemos su historial de anuncios, podemos sugerir el próximo anuncio. En mi opinión, esos son usos benignos de la tecnología dentro de un espacio de control. Pero ahora imaginemos que construimos un sistema de inteligencia artificial que analiza los comportamientos humanos y descubre mis debilidades. Así que digamos, por ejemplo, que estoy sujeto a la primera persona: lo que tú digas, yo creo primero. Esto se llama sesgo de anclaje. E imaginemos que el sistema informático puede determinar cómo anclarme en una falsedad. Así que el problema actual de la desinformación será un juego de niños en comparación con muchas personas que intentan manipular la impresión que tengo del mundo que me rodea utilizando esta tecnología. Este es un problema por resolver. Estamos todos en línea. Todos estos sistemas aprenderán lo que nos importa, pero luego podrían ser manipulados. Eso tendrá un impacto tan grande como las discusiones que estamos teniendo, por ejemplo, en conflicto.

LaFrance: Me alegra que hayas mencionado la desinformación. Cuando era director ejecutivo de Google, Google adquirió YouTube en 2006. Entonces era una Internet muy, muy diferente, y ahora YouTube se encuentra entre uno de los lugares —entre muchas otras plataformas, incluido Google también, para el caso— donde vemos la amenaza del extremismo y la desinformación. ¿Qué desearías saber entonces que sepas ahora?

Schmidt: Puedo decirles, en la década de 2000, nuestra opinión, y creo que hablo en nombre de la empresa durante ese tiempo, era la opinión estadounidense de que la solución a la mala información es más información. Así que tomamos una posición que era bastante agresiva contra la eliminación de contenido, incluso si era dañino. Y lo vimos como lo correcto desde el punto de vista tecnológico, pero también como lo correcto desde el punto de vista cultural. Fuimos muy criticados en otros países por esto. Para mí, lo más interesante de COVID en línea ha sido que plataformas como Twitter y Facebook, que se han resistido a cualquier forma de eliminación, han trabajado agresivamente, o han afirmado estar trabajando agresivamente, para eliminar la información errónea de COVID. COVID es un ejemplo de algo donde las falsedades están al otro lado de la línea. Puedo decirles que hoy no estoy involucrado en eso, dejé Google, pero YouTube tiene un equipo que toma estas decisiones todos los días y trata de averiguar dónde está la línea. Puedes decidir dónde crees que está esa línea. Mucha gente que conozco cree que la mentira en información errónea que se da en las redes sociales está al otro lado de la línea, debería prohibirse, pero no sé cómo prohibirla de manera sistemática. Y, además, creo que las personas que están difundiendo información errónea tendrán acceso a estas herramientas que les facilitarán aún más la difusión de información. La industria tiene que encontrar una forma de detener la propagación de información errónea. Uno de ellos, por cierto, solo para divagar técnicamente, es que la información no tiene marca de agua de tal manera que sepamos su origen. Será relativamente fácil para la industria en su conjunto comenzar diciendo: “¿De dónde vino realmente esta información? ¿Dónde entró esta imagen o este texto o video o lo que sea? ¿Dónde entró en todos nuestros sistemas y luego quién lo modificó? » Eso por sí solo nos ayudaría al menos a comprender el origen de la manipulación.

LaFrance: ¿Crees que es posible que estas plataformas sean demasiado grandes y los humanos no deberían estar conectados a esta escala? Creo que Facebook tiene 2.900 millones de usuarios. ¿Es posible que no sea así como debe organizarse la humanidad?

Schmidt: Está bastante claro que hay cosas en las que los humanos no son muy buenos, y una es una cascada de información. Por lo tanto, no somos muy buenos con los cambios rápidos y la gran cantidad de información; solo hace que nuestros cerebros se vuelvan locos, tal vez con algunas excepciones notables. Para la gente normal es como Dios mío, no puedo soportarlo más. Y conduce a un aumento del estrés por cortisol, tal vez una enfermedad mental, Dios lo sabe. Así que tenemos el problema de que la información que les llega es tan profunda. En nuestro libro, de lo que hablamos es de que esta coexistencia con este recurso de información —está impulsada por características que no son humanas— es un cambio profundo en el espacio de la información. Nos preocupamos mucho en el libro sobre cómo lo regulas. No estamos a favor de la censura; no estamos tratando de filtrar las opiniones de la gente. Entonces, ¿cuáles son las restricciones apropiadas del mal uso de esta nueva tecnología?

Ahora, no me ha preguntado todos los grandes beneficios de todo esto. Déjame darte un ejemplo de por qué deberíamos luchar por la IA. A las personas con las que hablé en ciencias, que es donde paso la mayor parte de mi tiempo ahora, les encantaría tener una IA que simplemente leyera todo, porque la explosión del conocimiento en la ciencia está abrumando sus cerebros brillantes. Puede imaginarse que el sistema de inteligencia artificial, que lo ve todo y puede resumir, se puede utilizar para hacer avanzar la biología, avanzar en el descubrimiento de fármacos, etc. a un ritmo enorme. En la introducción a nuestro libro, usamos tres puntos de índice. El primero es AlphaGo, que venció a los competidores coreanos y chinos e inventó movimientos que nunca se habían visto en 2.500 años. Lo sé porque estaba físicamente presente cuando esto sucedió. Hablamos sobre un medicamento llamado Halicin, donde la computadora tomó 100 millones de compuestos, descubrió cómo funcionan y descubrió cómo ensamblar un nuevo antibiótico de clase amplia, que nunca se había concebido, que ahora se está probando. Y también hablamos de la tecnología llamada GPT-3, que es un representante de lo que se llaman modelos universales, donde leen todo y luego tratas de averiguar qué entienden y qué pueden hacer. Los resultados son milagrosos. Estamos al comienzo de esta rampa que estoy describiendo. Y ahora es el momento de decir: «Veamos cómo queremos manejar estas cosas». Entonces, por ejemplo, ¿está bien? Uso mi ejemplo gracioso del oso. ¿Está bien tener un oso racista? Quizás la gente piense que está bien. No creo que esté bien, pero es un debate apropiado.

LaFrance: Usted ha escrito antes que la «inteligencia» en la inteligencia artificial es innecesariamente antropomórfica, y que necesitamos replantear la forma en que pensamos sobre lo que es el conocimiento. ¿Cuál es su visión de lo que se convierte entonces en la inteligencia humana, si las máquinas pueden hacer todo lo que nosotros podemos hacer y mejor? ¿Existe alguna forma de inteligencia que siga siendo exclusivamente humana, y deberíamos preocuparnos si no la hay? ¿Qué reino sigue siendo nuestro?

Schmidt: Podría especular que en unos pocos cientos de años probablemente no habrá lugares donde la inteligencia informática no sea tan buena como la de los humanos. Pero ciertamente, durante el resto de nuestras vidas, habrá cosas que son exclusivamente humanas que implican la síntesis de ideas fuera del campo de la izquierda, cosas que son solo ideas verdaderas, verdadero descubrimiento nuevo, verdadera innovación. Si observa el patrón de la IA, no está reemplazando a los brillantes abogados, columnistas, escritores, maestros, investigadores; está reemplazando trabajos serviles. Entonces, lo que sucedió con la IA fue que comenzó a trabajar en la visión. Y mucha gente simplemente mira y monitorea las cosas, lo cual es bastante paralizante. Y ahora las computadoras son mejores en visión que los humanos, lo que permite que los humanos sean libres para hacer cosas de orden superior. Entonces, durante el período previsible, y ciertamente durante nuestras vidas, habrá un lugar para los humanos. Ojalá ese lugar para los humanos sea usar lo que mejor hacemos, que es nuestra creatividad, nuestro sentido de la moral, nuestro sentido del espíritu. Serán muy difíciles para las tareas actuales y el enfoque actual de cómo evoluciona la IA, al menos en esta generación de invención.