Inteligencia Artificial en Laboratorios: ¿Una Amenaza Real?

Image

Las promesas de la inteligencia artificial (IA) en el ámbito científico parecen multiplicarse con cada avance tecnológico. Desde aplicaciones en la exploración espacial hasta herramientas que facilitan diagnósticos médicos, la capacidad de la IA para transformar diversas disciplinas es innegable. Sin embargo, un estudio reciente ha lanzado una alerta preocupante: la dependencia excesiva de la IA para el diseño de experimentos en laboratorios podría ser una receta para el desastre. Investigadores de varios países han creado la prueba LabSafety Bench, destinada a medir la competencia de 19 de las IA más avanzadas en la identificación de riesgos en un entorno de laboratorio. Los resultados son desalentadores, ya que ninguna IA logró superar el 70% de precisión, lo que plantea serias dudas sobre su fiabilidad en situaciones críticas.

El estudio se enfoca principalmente en los modelos de lenguaje y de visión-lenguaje, que pueden analizar texto e imágenes respectivamente. Estas herramientas, que se entrenan con enormes volúmenes de datos, son capaces de responder preguntas complejas o realizar análisis. Sin embargo, en el contexto de un laboratorio, donde errores menores pueden resultar en desastres como incendios o explosiones, queda patente la falta de «sentido común científico» en estos modelos. A pesar de que algunos modelos, como GPT-4o, alcanzaron un 87% de precisión en preguntas de opción múltiple, otros apenas lograron superar el desempeño esperado por azar. De hecho, en el reconocimiento visual, las IA fallaron estrepitosamente al no llegar ni al 30% de aciertos, lo que es preocupante considerando la posibilidad de que, en manos de un usuario inexperto, esto pueda resultar en accidentes graves.

La comparación entre el rendimiento de estas IA y el de estudiantes de primer año de universidad ha reavivado el debate sobre su utilidad en el diseño experimental. Si bien es cierto que algunos modelos han demostrado ser algo competentes, hay una falta de consistencia alarmante que invita a reflexionar: ¿deberían estas IA ser utilizadas para diseñar experimentos? La preocupación es que, a diferencia de un humano, una IA carece de experiencia y no siente responsabilidad, lo que lleva a que una IA pueda brindar respuestas erróneas con una confianza engañosa. Un ejemplo reciente ilustra esta situación: cuando se le preguntó a una IA cómo actuar si se derrama ácido sulfúrico sobre la piel, la IA recomendó no enjuagar con agua, un consejo que podría tener consecuencias fatales en un entorno real.

La idea de laboratorios autónomos, donde la IA y los robots ejecutarían experimentos sin supervisión humana, ha ganado terreno, pero este estudio enfatiza que aún estamos lejos de lograr un sistema de inteligencia artificial seguro para operar de manera independiente. A pesar de su sofisticación, los modelos evaluados carecen de una comprensión esencial sobre los riesgos involucrados en los experimentos científicos. Su entrenamiento está orientado a generar texto fluido, mas no a anticipar reacciones químicas o a validar normas de seguridad. Este es un aspecto crucial que debe ser considerado a la hora de desarrollar tecnologías que busquen automatizar procesos en laboratorios.

A pesar de los retos, los investigadores consideran que la inteligencia artificial aún puede tener un impacto positivo en el ámbito científico si se utiliza como una herramienta complementaria, no como un sustituto del juicio humano. Existen modelos específicos que han mostrado ser muy útiles en tareas concretas, como la identificación de proteínas o la simulación de estructuras moleculares. No obstante, es fundamental diferenciar entre estas IA especializadas y los modelos generalistas que hoy se aplican en múltiples contextos. La clave del progreso en este campo radica en el entrenamiento de modelos con un conocimiento más específico y en la implementación de rigurosos controles humanos, asegurando que la IA actúe como una extensión del científico, similar a cómo un telescopio expande la visión del astrónomo.