Un grupo de expertos de inteligencia artificial (IA), entre los que se encuentran el dueño de Twitter, Elon Musk; el cofundador de Apple, Steve Wozniak; y el ensayista Yuval Noah Harari, autor de Sapiens y Homo Deus, ha solicitado en una carta abierta la paralización inmediata del desarrollo de sistemas de IA como GPT-4 hasta garantizar que sus efectos sean positivos y los riesgos, gestionables.
En una carta coordinada por el think tank The Future of Life Institute, más de 1.000 expertos en IA, entre los que se encuentran personalidades como Elon Musk, Steve Wozniak o Yuval Noah Harari, e investigadores de empresas tecnológicas como Amazon, Google, Meta o Microsoft, han expresado su inquietud por el avanzado desarrollo de inteligencias artificiales “gigantes”, más avanzadas que la IA detrás de ChatGPT, ante el lanzamiento reciente de GPT-4, la nueva versión de la tecnología del asistente de OpenAI.
“En los últimos meses hemos visto laboratorios de IA encerrarse en una carrera sin control para desarrollar y desplegar mentes digitales más poderosas que nadie – ni siquiera sus creadores- puede entender, predecir o controlar con seguridad”, han escrito.
De ahí que pidan la paralización de las investigaciones y desarrollos durante al menos seis meses para conocer las posibilidades y los potenciales peligros. “Los sistemas de IA poderosos deberían ser desarrollados solo cuando estemos seguros de que sus efectos serán positivos y sus riesgos manejables”.
Según los expertos, si ninguna compañía o laboratorio está dispuesto a parar sus trabajos, entonces deberían ser los gobiernos los que “deberían dar un paso adelante”. Para los firmantes, su petición no implica una pausa en el desarrollo de la IA general, sino tan solo un paso atrás en una “peligrosa carrera hacia modelos más grandes con cajas negras impredecibles”.