www.elimparcial.es
ic_facebookic_twitteric_google

INVESTIGACIÓN

Científicos advierten sobre el peligro de las proteínas sintéticas creadas con IA

Proteínas diseñadas con IA.
Ampliar
Proteínas diseñadas con IA. (Foto: DeepMind)
viernes 03 de octubre de 2025, 18:49h

Un equipo internacional de investigadores ha identificado fallos en los sistemas de seguridad que emplean las empresas de biología sintética para evitar la producción de proteínas potencialmente dañinas mediante inteligencia artificial. El estudio, publicado en Science, advierte de que algunos programas de cribado (BSS, por sus siglas en inglés) podrían ser vulnerables frente a variantes de proteínas generadas con modelos de IA, lo que plantea nuevos retos de bioseguridad.

La llamada ingeniería de proteínas asistida por IA (AIPD, en inglés) está revolucionando la medicina y la biología al permitir diseñar proteínas con funciones novedosas. Sin embargo, el mismo avance podría usarse de forma indebida para producir proteínas nocivas. Las empresas que sintetizan ADN utilizan software de detección para bloquear pedidos de secuencias que codifiquen moléculas peligrosas. Pero los investigadores advierten que los modelos generativos de IA pueden crear variantes suficientemente distintas como para pasar inadvertidas.

Para evaluar esta amenaza, Bruce Wittmann y su equipo aplicaron un enfoque de “red teaming” con IA, generando más de 75.000 variantes de proteínas peligrosas que fueron sometidas a cuatro programas de cribado. Aunque los sistemas detectaron casi sin errores las secuencias originales, mostraron una eficacia desigual frente a las variantes diseñadas con IA. Según los autores, la tasa de detección mejoró tras introducir parches desarrollados junto a tres de los proveedores, aunque alrededor del 3% de las secuencias más preocupantes continuó escapando a los filtros.

“Los avances de la IA están impulsando grandes progresos en biología y medicina, pero con ese poder llega la responsabilidad de una gestión vigilante y prudente de los riesgos”, señaló Eric Horvitz, director científico de Microsoft y coautor del trabajo.

El equipo ha decidido restringir el acceso a parte de los datos y al código utilizado, dada su posible aplicación indebida. La información estará disponible mediante un sistema escalonado administrado por la Iniciativa Internacional de Bioseguridad y Bioprotección para la Ciencia (IBBIS), que evaluará cada solicitud de acceso.

Con esta investigación, los autores no solo buscan reforzar la seguridad de las herramientas de cribado, sino también sentar las bases de un marco internacional que permita compartir datos sensibles de manera responsable y garantizar que la biología impulsada por IA se desarrolle bajo principios de seguridad y transparencia.

¿Te ha parecido interesante esta noticia?    Si (1)    No(0)

+
0 comentarios