Pro

Human Compatible: ¿La inteligencia artificial acabará con nosotros?

Innovación en 12 min.



Por Stuart Russell

¿Prefieres los podcasts? Escucha este resumen.

Compra este libro.

Sinopsis

Human Compatible (2019) explica por qué la creación de una inteligencia artificial superinteligente podría ser el acto final de la humanidad. Este resumen llama la atención sobre la posible catástrofe hacia la que se dirige la humanidad y discute qué se debe hacer para evitarla. Si queremos asegurarnos de que la IA siga siendo beneficiosa para los humanos a largo plazo, es posible que debamos repensar radicalmente su diseño.

¿Qué vas a aprender?

Reconsidera tus suposiciones fundamentales sobre la IA.

La inteligencia artificial será la tecnología definitoria del futuro. La IA ya está impregnando rápidamente todos los niveles de la sociedad: los individuos llevan voluntariamente la IA a sus hogares para ayudarlos a organizar su vida diaria, los ayuntamientos y las corporaciones emplean la IA para ayudar a optimizar sus servicios, y los estados aprovechan la IA para llevar a cabo un cabo vigilancia a gran escala. Pero a medida que la IA se vuelve más inteligente, y nuestros sistemas sociales dependen cada vez más de ella, la amenaza que presenta la IA fuera de control se vuelve más grave.

Con demasiada frecuencia, los riesgos y las desventajas de las nuevas tecnologías quedan sin explorar, ya que los científicos e ingenieros se concentran en su febril búsqueda para realizar las utopías del futuro. De hecho, muchos expertos en inteligencia artificial y altos ejecutivos corporativos incluso minimizan los riesgos de la inteligencia artificial por temor a ser regulados más estrictamente.

Este resumen intenta remediar este desequilibrio. La cuestión de cómo controlar la IA y mitigar sus consecuencias más desastrosas es la mayor cuestión a la que se enfrenta la humanidad hoy en día, y es precisamente esta cuestión la que exploraremos.

Necesitamos varios avances en software antes de que la IA supere la inteligencia humana.

Las computadoras de hoy pueden procesar información a velocidades asombrosas. Pero incluso ya en la década de 1950, las computadoras se promocionaban como súper cerebros que son "más rápidos que Einstein".

Por supuesto, las computadoras en ese entonces no tenían nada que hacer en contra del cerebro humano. Pero todavía comparamos los dos. De hecho, desde el comienzo de la informática, hemos tendido a medir la inteligencia computacional (y el progreso) con la inteligencia humana.

Entonces, ¿qué pasa con las computadoras de hoy? Algunas de ellas, seguramente, ¿pueden vencernos?

La computadora más rápida del mundo en la actualidad es la Summit Machine, ubicada en el Laboratorio Nacional de Oak Ridge en los EE.UU. En comparación con la primera computadora comercial del mundo, la Ferranti Mark 1, la Summit Machine es 1,000 billones de veces más rápida y tiene 250 billones de veces más memoria. Son muchos ceros.

En términos de potencia informática bruta, Summit Machine en realidad supera ligeramente al cerebro humano, aunque requiere un almacén lleno de hardware y un millón de veces más energía.

Aun así, es impresionante. Pero ¿podemos decir que las supercomputadoras actuales, incluida la Summit Machine, son tan poderosas como el cerebro humano? La respuesta es decididamente no.

Claro, estas computadoras tienen un hardware impresionante, lo que permite que sus algoritmos funcionen más rápido y procesen más información. Pero hay mucho más en la inteligencia que solo la velocidad de procesamiento.

El verdadero problema al diseñar la inteligencia está en el software. A partir de ahora, todavía necesitamos varios avances conceptuales importantes en el software de IA antes de presenciar algo parecido a la inteligencia artificial a nivel humano.

El avance más importante que necesitamos es la comprensión del lenguaje. La mayoría de la IA de reconocimiento de voz inteligente actual se basa en respuestas enlatadas y tiene problemas para interpretar los matices en el significado. Es por eso por lo que recibes historias de asistentes personales de teléfonos inteligentes que responden a la solicitud 'llámame una ambulancia' con 'ok, de ahora en adelante, te llamaré Ann Ambulance'. La inteligencia artificial genuinamente inteligente necesitará interpretar el significado basándose no solo en las palabras, pero también en su contexto y tono.

Nunca podemos decir realmente cuándo se producirán los avances conceptuales. Pero una cosa es segura: no debemos subestimar el ingenio humano.

Considera el siguiente ejemplo. En 1933, el distinguido físico nuclear Ernest Rutherford anunció en un discurso formal que aprovechar la energía nuclear era imposible. Al día siguiente, el físico húngaro Leó Szilárd describió la reacción en cadena nuclear inducida por neutrones, esencialmente resolviendo el problema.

Todavía no sabemos si la superinteligencia, la inteligencia más allá de las capacidades humanas, surgirá pronto. Pero sigue siendo prudente tomar precauciones, como se hizo al diseñar tecnología nuclear.

Hemos estado operando bajo una concepción equivocada de la inteligencia.

Si no tratamos a la IA con precaución, podemos terminar como el gorila.

Solo ten en cuenta que, gracias a la pérdida de hábitat causada por los humanos, todas las especies de gorilas de hoy están en peligro crítico de extinción. Claro, en las últimas décadas, los esfuerzos de conservación han sacado con éxito a algunas especies del borde de la extinción. Pero, ya sea que el número de gorilas disminuya o prospere, su destino depende en gran medida de los caprichos de los humanos.

La preocupación es que en un mundo controlado por IA superinteligente, estaríamos en la misma posición que los gorilas. ¿Pueden los humanos mantener la supremacía y la autonomía en un mundo en el que ocupan el segundo lugar frente a seres más inteligentes?

Afortunadamente, hay una diferencia importante entre nosotros y los gorilas: somos nosotros los que diseñamos esta nueva inteligencia. Es primordial que tengamos mucha precaución en la forma en que diseñamos la IA si queremos asegurarnos de que permanezcan bajo nuestro control. Pero tenemos un problema crucial.

En el paradigma actual del diseño de la IA, la inteligencia de una IA se mide simplemente por lo bien que puede lograr un objetivo preestablecido. El gran defecto de este enfoque es que es extremadamente difícil especificar objetivos que harán que una IA se comporte de la manera que queremos. Prácticamente cualquier objetivo que se nos ocurra puede producir un comportamiento impredecible y potencialmente muy dañino.

Este problema se conoce como el problema del Rey Midas, llamado así por el legendario rey que deseaba que todo lo que tocara se convirtiera en oro. De lo que no se dio cuenta fue que esto incluía la comida que comía e incluso los miembros de su propia familia. Este cuento antiguo es un ejemplo perfecto de cómo un objetivo mal especificado puede terminar causando más conflictos que beneficios.

El peligro de un comportamiento impredecible aumenta a medida que la IA se vuelve más inteligente y ejerce un mayor poder. Las consecuencias podrían incluso presentar una amenaza existencial para la humanidad. Por ejemplo, podríamos pedirle a una IA superinteligente que encuentre una cura para el cáncer, solo para que comience a dar cáncer a las personas para hacer experimentos con ellos.

Quizás te estés preguntando: si no estamos contentos con lo que está haciendo una IA, ¿por qué no simplemente apagamos la maldita cosa?

Desafortunadamente, para la gran mayoría de los objetivos, una IA tendría un incentivo para no dejarse apagar. Eso se debe a que apagarla amenazaría su objetivo. Incluso objetivos aparentemente sencillos como "hacer un café" llevarían a una IA a evitar que se apague.

Después de todo, no puedes hacer café si estás muerto.

En lugar de solo máquinas inteligentes, deberíamos diseñar máquinas beneficiosas.

Hasta ahora, el mantra entre los investigadores de IA ha sido: cuanto más inteligente, mejor. Pero, ¿es esto realmente lo que deberían estar buscar?

Como acabamos de ver, una IA a la que se le asigna un objetivo establecido de manera descuidada puede terminar adoptando un comportamiento muy dañino. Y no es un gran consuelo si la IA se involucra en un comportamiento dañino de manera inteligente; en todo caso, lo empeora.

Lo que necesitamos es un mantra diferente. Uno que tiene como objetivo construir una IA que se mantendrá sintonizada con los objetivos humanos, pase lo que pase. El nuevo mantra debería ser: cuanto más beneficioso, mejor.

Hay tres principios que los diseñadores deben seguir si quieren crear una IA beneficiosa.

El primer principio es que la IA solo debe tener un objetivo, que es el máximo cumplimiento de las preferencias humanas. El autor llama a esto el principio de altruismo. Garantiza que una IA siempre colocará las preferencias humanas por encima de las propias.

El segundo principio es que la IA inicialmente debería tener dudas sobre cuáles son esas preferencias. Este es el principio de humildad. La idea aquí es que una IA incierta nunca se fijará en un solo objetivo, sino que cambiará su enfoque a medida que ingrese nueva información.

Los sistemas de IA inciertos serían más cautelosos y más propensos a ceder ante los humanos. Al ser inseguro, una IA buscará continuamente información aclaratoria. Esto significa que a menudo piden permiso, solicitan comentarios e incluso pueden realizar pruebas para probar las reacciones humanas.

Y, lo que es más importante, la IA incierta permitirá que se apague. Esto se debe a que interpretaría que un humano que intenta apagarla tiene la preferencia de que se apague.

El tercer y último principio para hacer una IA beneficiosa es que su principal fuente de información sobre las preferencias humanas debe ser el comportamiento humano. A esto se le llama el principio de aprendizaje. Asegura que una IA siempre permanecerá en una relación directa y sostenida de aprendizaje con los humanos. Significa que una IA se volverá más útil para una persona con el tiempo a medida que la conozca mejor.

Estos tres principios representan una comprensión alternativa de lo que implica la inteligencia genuina: la capacidad de escudriñar y redefinir los propios objetivos a la luz de nueva información. La IA con este tipo de inteligencia estaría mucho más cerca de la inteligencia humana, ya que también somos capaces de examinar y alterar los objetivos por los que nos esforzamos.

Y, si la IA pudiera cambiar sus objetivos a la luz de las preferencias humanas, tendríamos la base para una nueva relación radical entre humanos y máquinas: una en la que la máquina y los objetivos humanos son esencialmente los mismos.

Podemos esperar que la IA nos beneficie de muchas maneras.

Se ha informado de que algunos asistentes virtuales domésticos, incapaces de diferenciar quién les habla, han estado obedeciendo órdenes para comprar productos que han escuchado en la televisión. Claramente, los asistentes virtuales aún no son muy inteligentes.

Pero esto va a cambiar.

La tecnología de asistente virtual está mejorando a pasos agigantados, gracias en parte a la inversión masiva del sector privado. La razón de tanto interés en esta tecnología es que la gama de tareas que podrían realizar los asistentes virtuales es aparentemente ilimitada. No estamos hablando solo de hacer listas de compras y encender el estéreo, estamos hablando de realizar el trabajo de especialistas altamente calificados.

Los abogados virtuales, por ejemplo, ya están superando ampliamente a los abogados reales en la obtención de información legal rápidamente. De manera similar, los médicos virtuales están superando a los médicos humanos a la hora de proporcionar diagnósticos correctos de enfermedades.

Eventualmente, puede que no haya necesidad de especialistas en absoluto. En su lugar, todos tendremos nuestro propio médico, abogado, maestro, asesor financiero y secretaria, personal, todo en uno, en nuestros bolsillos, de guardia, las 24 horas del día. Gracias a los asistentes virtuales, estos servicios vitales se democratizarán, ya no serán accesibles solo para los ricos, elevando así el nivel de vida de todos.

El beneficio de la IA para la investigación científica también será colosal. Una IA con habilidades básicas de comprensión de lectura podría leer todo lo que la raza humana haya escrito entre el desayuno y la hora del almuerzo. En comparación, se necesitarían 200,000 personas leyendo a tiempo completo solo para mantenerse al día con el nivel actual de publicación del mundo.

Con la ayuda de la IA superinteligente, los científicos ya no tendrán que clasificar inmensas cantidades de investigación publicada, ya que la IA podrá extraer y analizar los datos relevantes para ellos.

La IA superinteligente también tendrá aplicaciones globales. Al recopilar información de las cámaras de vigilancia y los satélites, deberíamos esperar que la IA se utilice para crear una base de datos de búsqueda de todo el mundo en tiempo real. A partir de estos datos, podríamos producir modelos de sistemas globales, como la actividad económica y los cambios ambientales. Estos modelos permitirían diseñar intervenciones efectivas en estos sistemas, ayudándonos, por ejemplo, a mitigar los efectos del cambio climático.

Sin embargo, el potencial de violación de la privacidad que implica un sistema de monitoreo global es obvio. Esto nos lleva a nuestro próximo capítulo, que aborda el lado más oscuro de la IA para el que todos debemos prepararnos.

La IA hará la vida menos segura para todos.

La Stasi de la antigua Alemania Oriental fue una de las agencias de inteligencia más eficaces y represivas que jamás haya existido. Mantuvieron archivos sobre la mayoría de los hogares de Alemania Oriental, escucharon sus llamadas telefónicas, leyeron sus cartas e incluso colocaron cámaras ocultas dentro de sus hogares. Todo esto fue hecho por humanos y escrito en papel, requiriendo una vasta burocracia y unidades de almacenamiento masivas que contienen literalmente miles de millones de registros físicos en papel.

Imagínense lo que la Stasi podría haber hecho con la IA. Con una inteligencia artificial superinteligente, sería posible monitorear las llamadas telefónicas y los mensajes de todos automáticamente. Los movimientos diarios de las personas también se pueden rastrear mediante el uso de cámaras de vigilancia y datos satelitales. Sería como si cada persona tuviera su propio operativo vigilándolos las 24 horas del día.

La IA podría provocar otras distopías. Esto incluye el Infopocalypse, el catastrófico fracaso del mercado de ideas para producir la verdad. La IA superinteligente será capaz de fabricar y distribuir información falsa sin intervención humana. También podrán dirigirse a individuos específicos, alterando estratégicamente su dieta de información para manipular su comportamiento con precisión quirúrgica.

En gran medida, esto ya está sucediendo. Los algoritmos de selección de contenido utilizados por las plataformas de redes sociales, aparentemente diseñados para predecir las preferencias de las personas, terminan cambiando esas preferencias al proporcionarles solo una selección limitada de contenido. En la práctica, esto significa que los usuarios se ven obligados a ser cada vez más extremos en sus opiniones políticas. Podría decirse que incluso estas formas rudimentarias de inteligencia artificial ya han causado un gran daño, afianzando la división social y proliferando el odio.

Si bien el Infopocalypse todavía está en su etapa infantil, la próxima distopía está en ciernes. Este es el estado de miedo constante causado por la tecnología de armas autónomas.

Ya se han desarrollado armas autónomas, máquinas que buscan y neutralizan objetivos por sí mismas. Estas armas identifican objetivos en función de información como el color de la piel, el uniforme o incluso las huellas exactas de la cara.

Los drones en miniatura llamados slaughterbots ya se están preparando para buscar, localizar y neutralizar a individuos específicos. En 2016, la fuerza aérea de los EE.UU. demostró el despliegue de 103 drones slaughterbot. Describieron a los drones como un solo organismo que comparte un cerebro distribuido, como un enjambre en la naturaleza.

Estados Unidos es solo una de las muchas naciones que actualmente construyen, o que ya usan, tecnología de armas automatizadas. A medida que las armas autónomas lleguen a desplazar la guerra humana convencional, todas nuestras vidas se volverán menos seguras, ya que cualquier persona podrá ser atacada, sin importar en qué parte del mundo se encuentre.

La automatización masiva liberará el potencial de la humanidad o lo debilitará.

Acabamos de ver tres escenarios aterradores que podrían ser causados ​​por la IA. Pero todavía no hemos considerado cuál es quizás la amenaza más preocupante y socialmente destructiva de la IA: la automatización.

La automatización bien puede otorgar acceso a más personas a servicios importantes como atención médica y asesoramiento legal. Pero también podría causar un desempleo generalizado. Exactamente qué tan amenazante es esto está abierto a debate. Los optimistas señalan que en todas las revoluciones industriales anteriores, la automatización produjo al menos tantos puestos de trabajo como erradicó. Sin embargo, si observas la investigación, muestra que durante los últimos 40 años, los puestos de trabajo han disminuido significativamente en todas las industrias que han implementado tecnología de automatización.

Entonces, ¿deberíamos estar preocupados?

La verdad es que, a largo plazo, es probable que la IA automatice casi todo el trabajo humano existente. Esto no solo afectará el trabajo poco calificado como la conducción de camiones. Como vimos anteriormente, incluso los profesionales altamente calificados como médicos, abogados y contadores están en riesgo.

Entonces, cuando una máquina reemplace tu mano de obra, ¿qué te quedará para vender? Bueno, no mucho. Pero ¿y si no necesitaras vender nada? ¿Qué pasaría si pudiéramos dejar que las máquinas hicieran todo el trabajo y aun así asegurarnos de que todos tuviéramos lo suficiente para vivir?

Una forma de hacer esto podría ser instituir una renta básica universal o RBU. Una RBU proporcionaría a cada persona adulta un ingreso mensual razonable independientemente de las circunstancias. Aquellos que quieran ganar más podrían trabajar libremente, si hay alguno disponible. Pero, para todos los demás, liberados de la necesidad de ganarse la vida, serían libres de perseguir lo que quisieran.

Esta es una imagen optimista, ¿no? Pero ¿este escenario sería realmente una utopía? Si las máquinas se hicieran cargo de todo el trabajo, el aprendizaje y el esfuerzo por adquirir habilidades, ¿no nos convertiríamos en seres disminuidos?

Ésta es una preocupación genuina. Hasta ahora, la única forma de sustentar nuestra civilización ha sido pasar el conocimiento, de un ser humano a otro y durante generaciones sucesivas. A medida que se desarrolla la tecnología, entregamos cada vez más ese conocimiento y experiencia a una máquina que puede hacer la tarea por nosotros.

Una vez que perdamos el incentivo práctico para transmitir el conocimiento a otros humanos, ese conocimiento y experiencia se marchitarán. Si no tenemos cuidado, podríamos convertirnos en una especie debilitada, totalmente dependiente de las máquinas que aparentemente nos sirven.

Resumen

La forma en que actualmente diseñamos la IA es fundamentalmente defectuosa. Diseñamos la IA para que sea inteligente, pero no necesariamente para que tenga en cuenta los mejores intereses de la humanidad. Por lo tanto, debemos hacer del cumplimiento de los objetivos humanos el único objetivo de la IA. Si podemos controlar con éxito la IA superinteligente, podremos aprovechar su inmenso poder para hacer avanzar nuestra civilización y liberar a la humanidad de la servidumbre. Pero si fallamos, corremos el peligro de perder nuestra autonomía, ya que nos volvemos cada vez más sujetos a los caprichos de una inteligencia superior.

-

Sobre el autor

Stuart Russell es profesor de informática en la Universidad de California, Berkeley. Russell, un destacado investigador de inteligencia artificial, se ha desempeñado como vicepresidente del Consejo de Inteligencia Artificial y Robótica del Foro Económico Mundial y como asesor de la ONU con respecto al control de armas. También es coautor del libro de texto definitivo y universalmente aclamado sobre IA: Inteligencia artificial: un enfoque moderno (1994), que es el libro de texto número uno más vendido sobre IA y se utiliza en más de 1.400 universidades de 128 países de todo el mundo.


Contenido exclusivo para suscriptores

Para acceder a todo nuestro contenido suscríbete a tu prueba de 14 días.