Hace unas semanas, una carta firmada por mil expertos en inteligencia artificial pedía una moratoria de seis meses para detener la implementación de nuevas IA. Figuras notables como Elon Musk y Steve Wozniak destacaron los "profundos riesgos para la sociedad y la humanidad" que plantea esta tecnología. Sam Altman, director general de OpenAI, la compañía detrás de ChatGPT, ha admitido que aunque hay "enormes beneficios" en su modelo de lenguaje, también conlleva riesgos sin precedentes.
Sin embargo, algunos expertos han puesto el énfasis en la dificultad de encontrar una regulación global y en el riesgo de que el acceso a esta tecnología quede restringido a una élite. Incluso se han cuestionado las intenciones del Future of Life Institute, la organización que inició la petición para detener el desarrollo de nuevas IA. Entre ellos, la alicantina Nuria Oliver, cofundadora de la Unidad ELLIS de Alicante y doctora en Inteligencia Artificial por el MIT.
¿Qué hay realmente detrás de este debate? ¿Nos enfrentamos ante una amenaza existencial para la humanidad?
Para responder a estas preguntas, hemos hablado con dos expertos en el tema: Carles Sierra, director del Instituto de Inteligencia Artificial del CSIC, y Jaime Delgado, abogado especializado en privacidad y protección de datos en Bird & Bird. En su análisis, ambos expertos discuten los posibles riesgos y beneficios de la IA y abordan la necesidad de una regulación adecuada y equitativa para proteger a la sociedad en general.