Los aficionados a la inteligencia artificial (IA) apuestan por esta tecnología para ayudar a la humanidad a resolver problemas como el calentamiento global. Pero la realidad es que para ello se requieren sobre todo esfuerzos humanos.

«Imagínense que podamos preguntarle a la IA ‘Dime, tengo un problema espinoso, ¿qué harías tú en mi lugar?’, y que ella respondiera ‘Debes reestructurar este sector de la economía y luego…’ No. Es una quimera», afirma Michael Littman, profesor de informática en la Universidad Brown de Estados Unidos.



Para proteger el medio ambiente, por ejemplo, este investigador piensa que la IA mejorará sobre todo la eficiencia de los sistemas de producción y, por tanto, reducirá el consumo de energía.

«Pero no bastará con presionar un botón. Los humanos tendrán mucho trabajo», explicó este participante en el festival de arte y tecnología SXSW de Austin, Texas, en el sur de Estados Unidos.



Simi Olabisi, una ejecutiva de Microsoft, promocionó a su vez sus servicios en la nube. «La herramienta Azure Language para call center permite captar los sentimientos de los clientes -que pueden, por ejemplo, estar enojados al principio y muy agradecidos al final- e informar de ello a la empresa», explicó en la conferencia «En el corazón de la revolución de la IA: cómo la IA está empoderando al mundo».

 

– «Súper IA» –

 

La noción de inteligencia artificial, con sus algoritmos capaces de automatizar tareas y analizar montañas de datos, existe desde hace varias décadas.

Sin embargo, adquirió una nueva dimensión el año pasado con el éxito de ChatGPT, la interfaz de IA generativa lanzada por OpenAI, una nueva empresa financiada principalmente por Microsoft.

Esta tecnología, que produce textos, imágenes y otros contenidos en lenguaje corriente y a simple pedido, suscita preocupaciones, en términos de empleo o fraude, pero también mucho entusiasmo.

OpenAI (y Google, Meta, Amazon…) aspira a crear una IA «general» (AGI), que funcione en base a programas «más inteligentes que los humanos en general», en particular para «ayudar a elevar la humanidad», según su director ejecutivo Sam Altman.

Ben Goertzel, científico que dirige la Fundación SingularityNET y la Sociedad AGI, predice su llegada para 2029.

«Una vez que tengamos una máquina que piense tan bien como un ser humano inteligente, sólo pasarán unos años antes de que una máquina piense mil veces mejor, o un millón de veces mejor, que un ser humano, porque podrá modificar su propio código fuente», dijo durante la conferencia «¿Cómo hacer que la IA general sea beneficiosa y evitar el apocalipsis robótico?».

Goertzel aboga por el desarrollo de una IA general dotada de «compasión y empatía» e integrada en robots humanoides «que se parezcan a nosotros», para garantizar el buen entendimiento entre las futuras «súper IA» y la humanidad.

– «Semillas de sabiduría» –

 

A su lado, David Hanson, fundador de Hanson Robotics (diseñador de Desdémona, un humanoide dotado de IA generativa, también presente), conjeturó sobre el potencial de la IA general.

Podría «ayudar a resolver problemas medioambientales… Aunque la gente probablemente la utilizará para crear algoritmos de comercio financiero», bromeó.

Hanson teme las consecuencias potencialmente devastadoras de una carrera generalizada de IA entre las naciones, pero señala que los seres humanos no han esperado a que apareciera esta tecnología «para jugar a la ruleta existencial con armas nucleares» o «provocar una extinción masiva».

Quizás la IA general «contenga semillas de sabiduría que florezcan y nos ayuden a ser mejores», dijo.

En un primer tiempo, la IA debería permitir acelerar el diseño de nuevos medicamentos o materiales más sostenibles.

«Si soñamos un poco, podría comprender la complejidad del mundo físico y utilizarla para (…) descubrir materiales completamente nuevos que nos permitan hacer cosas antes imposibles», explicó a la AFP Roxanne Tully, del fondo de inversión Piva Capital.

La IA ya está dando buenos resultados en sistemas de predicción y alerta en caso de tornados o incendios forestales, pero sigue siendo necesario evacuar a las poblaciones afectadas o que los seres humanos acepten vacunarse en caso de pandemia, subrayó Rayid Ghani, de la Universidad Carnegie Mellon.

«Nosotros creamos los problemas, no la IA. La tecnología puede ayudarnos… un poco», matizó. «Y sólo si los humanos deciden utilizarla para abordar esos problemas».