Armas químicas
Las armas químicas fueron descubiertas bajo una serie de algoritmos. | Fuente: Unsplash

En la sociedad actual, la inteligencia artificial (IA) se utiliza principalmente para el bien. Pero ¿y si no fuera así?

Esta es la pregunta que se hicieron los investigadores de Collaborations Pharmaceuticals al realizar experimentos usando una IA que se construyó para buscar medicamentos útiles.

Por lo tanto, ajustaron esta IA para buscar armas químicas y, de manera impresionante, el algoritmo de aprendizaje automático encontró 40 mil opciones en solo seis horas, según un artículo publicado este mes en la revista Nature Machine Intelligence.

Pensamiento “ingenuo”

"La idea nunca antes se nos había ocurrido. Éramos vagamente conscientes de las preocupaciones de seguridad en torno al trabajo con patógenos o productos químicos tóxicos, pero eso no se relacionaba con nosotros; operamos principalmente en un entorno virtual. Nuestro trabajo se basa en la creación de modelos de aprendizaje automático para blancos terapéuticos y tóxicos para ayudar mejor en el diseño de nuevas moléculas para el descubrimiento de fármacos", escribieron los investigadores en su artículo.

"Pasamos décadas usando computadoras e inteligencia artificial para mejorar la salud humana, no para degradarla. Fuimos ingenuos al pensar en el posible mal uso de nuestro oficio, ya que nuestro objetivo siempre había sido evitar las características moleculares que podrían interferir con las muchas clases diferentes. de proteínas esenciales para la vida humana".

Los investigadores dijeron que incluso su trabajo sobre el ébola y las neurotoxinas, que podría haber generado preocupaciones sobre las posibles implicaciones negativas de sus modelos de aprendizaje automático, no había hecho sonar las alarmas. Eran felizmente inconscientes del daño que podían infligir.

¿Cómo funcionó su experimento?

Collaborations Pharmaceuticals había publicado modelos computacionales de aprendizaje automático para la predicción de toxicidad. Todo lo que los investigadores tuvieron que hacer fue adaptar su metodología para buscar, en lugar de descartar, la toxicidad y lo que obtuvieron fue un ejercicio de pensamiento que se convirtió en una prueba de concepto computacional para fabricar armas bioquímicas.

El experimento es una clara indicación de por qué necesitamos monitorear los modelos de IA más de cerca y pensar realmente en las consecuencias de nuestro trabajo.

Te recomendamos METADATA, el podcast de tecnología de RPP. Noticias, análisis, reseñas, recomendaciones y todo lo que debes saber sobre el mundo tecnológico. Para escucharlo mejor, #QuedateEnCasa.