Sundar Pichai, CEO de Google, se suma a las voces del sector tecnológico que piden un marco regulatorio para la inteligencia artificial (IA), a raíz de la eclosión de herramientas de IA generativa como las desarrolladas por OpenAI.
En una entrevista al programa del canal estadounidense de CBS, 60 Minutes, el máximo responsable del gigante tecnológico advirtió que la IA “puede ser muy dañina si se despliega de forma incorrecta”, por lo que sería necesario asentar un marco regulatorio a nivel global, similar a los tratados que regulan el uso de las armas nucleares, ante los posibles efectos adversos, entre ellos, la desinformación.
A este respecto, indicó: “Será posible con una IA crear un vídeo fácilmente, donde Scott (Pelley, el entrevistador del programa) aparecería diciendo algo, o yo diciendo algo, y en realidad nunca dijimos eso. Y podría parecer cierto. Esto, a escala social, puede hacer mucho daño”.
Pichai también reconoció la existencia de las cajas negras que se originan en este tipo de tecnología, cuando los resultados obtenidos por la IA no se sabe con certeza cómo se han generado. Preguntado entonces por qué se lanzan estas soluciones – como Bard, en el caso de Google-, el directivo argumentó que tampoco se conoce completamente cómo funciona la mente del ser humano.
Reconoció asimismo que la sociedad podría no estar preparada para los rápidos avances de la IA, y que parece haber un desajuste entre la velocidad a la que la sociedad piensa y se adapta al cambio comparado con el ritmo al que se desarrolla la IA. Sin embargo, se muestra optimista al ver que parte de la sociedad está alerta de los posibles peligros de esta. “Comparado con otra tecnología, he visto a más gente preocupada sobre ello al comienzo de su ciclo de vida, así que soy optimista”, concluyó.