www.elimparcial.es
ic_facebookic_twitteric_google

INTELIGENCIA ARTIFICIAL

Los padres de la IA moderna comparan sus riesgos con los de la guerra nuclear o las pandemias

El CEO de OpenAI, Sam Altman.
Ampliar
El CEO de OpenAI, Sam Altman. (Foto: EFE)
Eduardo Villamil
x
eduardovillamilelimparciales/16/7/16/28
martes 30 de mayo de 2023, 19:28h

"Mitigar el riesgo de extinción de la Inteligencia Artificial debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear". Esa es la tajante advertencia que un grupo de 350 investigadores, empresarios e ingenieros, expertos en esta nueva tecnología que crece a un ritmo vertiginoso, han lanzado hoy en una escueta declaración.

Entre los firmantes de la nota, colgada en el portal del Center for AI Safety de San Francisco, se encuentran algunos de los responsables de las empresas más punteras en este campo, como Sam Altman (presidente ejecutivo de OpenAI), Demis Hassabis ( CEO de Google DeepMind) y Dario Amodei (CEO de Anthropic). También figuran nombres de investigadores ilustres, considerados padres de la IA moderna. Es el caso de Geoffrey Hinton, de la Universidad de Toronto o Yoshua Bengio, de la Universidad de Montreal, ganadores del Premio Princesa de Asturias de Investigación Científica.

La declaración llega en un momento de creciente preocupación por los posibles efectos inesperados de esta tecnología disruptiva, que amenaza con cambiar para siempre no sólo el mundo tal y como lo conocemos sino también a la propia humanidad. Hace apenas dos semanas, Altman, responsable de ChatGPT, ya alertó en el Capitolio estadounidense sobre los peligros asociados a la IA. "Es esencial regular la inteligencia artificial, y que esas normas garanticen que el público acceda a los muchos beneficios de esta tecnología (...). Mi peor miedo es que esta tecnología salga mal. Y si sale mal, puede salir muy mal", advirtió.

Geoffrey Hinton, conocido popularmente como 'el padrino de la IA', renunció a su cargo como vicepresidente de ingeniería en Google hace apenas un mes para poder hablar con mayor libertad sobre los peligros asociados a la IA. Poco después de su marcha este investigador se mostró muy preocupado por el "riesgo existencial de lo que sucederá cuando estas cosas se vuelven más inteligentes que nosotros". "Llegué a la conclusión de que el tipo de inteligencia que estamos desarrollando es muy diferente de la inteligencia que tenemos. Así que es como si tuvieras 10.000 personas y cada vez que una persona aprendiera algo, todos lo supieran automáticamente. Y así es como estos chatbots pueden saber mucho más que cualquier persona".

Dos meses atrás, otro grupo de personalidades de la industria, con Elon Musk a la cabeza, reclamó pausar durante seis meses los experimentos masivos con inteligencias artificiales más potentes que GPT-4 (última versión de ChatGPT) para articular un "conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzado de IA que son rigurosamente auditados y supervisados ​​por expertos externos independientes", pues, en su opinión la IA "puede plantear profundos riesgos para la sociedad y la humanidad".

Entre los firmantes de esa carta abierta se encontraban además del propio Musk (dueño de Tesla, SpaceX, Twitter o Neuralink), el cofundador de Apple Steve Wozniak, el investigador estadounidense Stuart Russell (de la Universidad de Berkeley) o el escritor israelí autor de Sapiens, Yuval Noah Harari.

"¿Debemos desarrollar mentes no humanas que podrían acabar superándonos en número, ser más inteligentes que nosotros, que nos dejen obsoletos y que nos reemplacen? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?, se preguntaban, antes de concluir: "Tales decisiones no deben delegarse en líderes tecnológicos no electos".

¿Te ha parecido interesante esta noticia?    Si (39)    No(0)

+
1 comentarios