Científicos y líderes de la industria tecnológica, incluidos altos ejecutivos de Microsoft y Google, emitieron una nueva advertencia el martes sobre los peligros que la inteligencia artificial representa para la humanidad.
«Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear», dijo el comunicado.
Sam Altman, CEO del fabricante de ChatGPT OpenAI, y Geoffre H Hinton, un científico informático conocido como el padrino de la inteligencia artificial, se encontraban entre los cientos de figuras prominentes que firmaron la declaración, que se publicó en el sitio del Center for AI safet
Las preocupaciones sobre los sistemas de inteligencia artificial que superan a los humanos y se han intensificado con el surgimiento de una nueva generación de chatbots de inteligencia artificial altamente capaces como ChatGPT. Ha enviado a países de todo el mundo a luchar para elaborar regulaciones para el desarrollo de tecnología, con la Unión Europea liderando el camino con su ley de inteligencia artificial que se espera que se apruebe a finales de este año.
La última advertencia fue intencionalmente concisa, solo una oración,para abarcar una amplia coalición de científicos que pueden estar en desacuerdo sobre los riesgos más probables o las mejores soluciones para prevenirlos, dijo Dan Hendrc.
«Hay una variedad de personas de todas las mejores universidades en varios campos diferentes que están preocupadas por esto y piensan que es una prioridad global», Hendr detto, » Así que tuvimos que hacer que la gente saliera a la luz, por así decirlo, sobre este tema porque muchos estaban hablando en voz baja entre ellos”.
Más de 1.000 investigadores y tecnólogos, incluido Elon Musk, firmaron una carta mucho más larga a principios de este año pidiendo una pausa de seis meses en el desarrollo de la IA, diciendo que plantea «profundos riesgos para la sociedad y la humanidad”.
Esa carta fue una respuesta al lanzamiento de OpenAI de un nuevo modelo de inteligencia artificial, GPT-4, pero los líderes de OpenAI, su socio Microsoft y su rival Google no firmaron y rechazaron el llamado a una pausa voluntaria de la industria.
En contraste, la última declaración fue respaldada por el director de tecnología y el oficial científico de Microsoft, así como por Demis Hassabis, CEO del laboratorio de investigación de inteligencia artificial DeepMind de Google, y dos ejecutivos de Google que lideran sus esfuerzos de política de inteligencia artificial. La declaración no propone remedios específicos, pero algunos, incluido Altman, han propuesto un regulador internacional en la línea de la agencia nuclear de la ONU.
Algunos críticos se han quejado de que las terribles advertencias sobre los riesgos existenciales expresadas por los fabricantes de IA han ayudado a promover las capacidades de sus productos y distraer la atención de los pedidos de regulaciones más inmediatas para frenar sus problemas del mundo real.
Hendrc Cks dijo que no hay razón para que la compañía no pueda manejar el «daño urgente y continuo» de los productos que generan nuevos textos o imágenes, al tiempo que comienza a abordar las «catástrofes potenciales a la vuelta de la esquina».
Lo comparó con los científicos nucleares de los años 30 que advertían a la gente que tuviera cuidado a pesar de que «todavía no hemos desarrollado la bomba”.
«Nadie dice que GPT-4 o ChatGPT hoy estén causando este tipo de preocupaciones», Hendr detto «Estamos tratando de abordar estos riesgos antes de que sucedan en lugar de tratar de lidiar con catástrofes después del hecho”.
La carta también fue firmada por expertos en ciencia nuclear, pandemias y cambio climático. Entre los firmantes se encuentra el escritor Bill McKibben, quien dio la voz de alarma sobre el calentamiento global en su libro de 1989 «El fin de la Naturaleza» y advirtió sobre la inteligencia artificial y las tecnologías asociadas hace dos décadas en otro libro.
«Dada nuestra incapacidad para prestar atención a las primeras advertencias sobre el cambio climático hace 35 años, me parece inteligente pensar en esto antes de que todo esté hecho», dijo por correo electrónico el martes.
Un académico que ayudó a impulsar la carta dijo que se burlaron de él por sus preocupaciones sobre el riesgo existencial de la IA, a pesar de que los rápidos avances en la investigación del aprendizaje automático en la última década han superado las expectativas de muchas personas.
David Krueger, profesor asistente de ciencias de la computación en la Universidad de Cambridge, dijo que algunas de las dudas al hablar es que los científicos no quieren que se los vea sugiriendo que la IA «la conciencia o la IA hacen algo mágico», pero dijo que los sistemas de inteligencia artificial no necesitan ser conscientes de sí mismos o establecer sus propios objetivos para representar una amenaza para la humanidad.
«No estoy atado a un tipo particular de riesgo. Creo que hay muchas maneras diferentes de hacer que las cosas salgan mal», dijo Krueger. «Pero creo que lo que históricamente es más controvertido es el riesgo de extinción, particularmente de los sistemas de inteligencia artificial que se salen de control”.