innovadores

Tecnología para distinguir lo real de la mentira

Una de las consecuencias de la inteligencia artificial generativa es que cada vez resulta más complicado separar lo que es real de lo que crea una máquina. Combatir esta vulnerabilidad, haciendo un buen uso de la tecnología, es lo que persiguen algunos emprendedores

25/09/2024 - 

VALÈNCIA. El pasado mes de junio, el fotógrafo Miles Astray ganaba, con el voto popular, el tercer premio del jurado, en la categoría de inteligencia artificial (IA), de los 1839 Awards con una fotografía titulada Flamingone. En la imagen, un tanto surrealista, se ve a un flamenco al que aparentemente le falta la cabeza. Luego fue descalificado, porque resulta que la imagen no había sido generada con inteligencia artificial, sino que era real. 

Sin entrar en debates sobre si habría que legislar o no el uso de la inteligencia artificial, una de las secuelas que está trayendo esta tecnología es la dificultad, cada vez mayor, para distinguir entre la realidad y la mentira, algo que aumenta nuestra vulnerabilidad ante posibles prácticas maliciosas. Un análisis realizado por Check points España, sobre más de 36 campañas electorales celebradas en el mundo desde septiembre de 2023 hasta abril de 2024, ponía al descubierto que una tercera parte de ellas incluía material de audio y vídeo generado por IA.

La inteligencia artificial buena

En busca de respuestas a una situación que empieza a ser inquietante, se han constituido empresas como Genaios, fundada en València y con sede también en Nuremberg (Alemania). La palabra Genaios viene del griego y significa valiente. En un mundo donde nos invade el mal uso de las IA y el auge de las fake news, en Genaios son valientes y se atreven «a plantarles cara, presentándose como la alternativa, la IA buena», dice Khaleeq Aziz, CEO y fundador de esta startup.

«Genaios surge de la preocupación general por el auge del contenido escrito por IA como ChatGPT, ya que cuanto más fácil es acceder a estas tecnologías, también aumentan los peligros de que caiga en malas manos y sea utilizada, por ejemplo, para escribir fake news a una velocidad aún más vertiginosa que anteriormente», continúa Aziz.

Como solución, han creado una multi-herramienta que valida automáticamente los hechos en los que se basa una noticia y detecta textos generados por IA. Esto potencia el pensamiento crítico y ayuda al usuario a identificar noticias falsas, a la vez que democratiza el acceso a información real y veraz. La herramienta está disponible a través de su aplicación en su web y su plugin para Google Chrome. Todo esto en español, inglés y alemán, aunque tienen planes de expansión a otros idiomas. Entre sus inversores figuran expertos como Paolo Rosso, profesor de la Universitat Politècnica de València.

El equipo de Genaios ha creado también TextMachina, un conjunto de herramientas de código abierto, que pueden utilizar investigadores de todo el mundo, para mejorar el campo de la detección de contenidos humanos y generados por IA. El modelo desarrollado por esta organización ha sido reconocido como el mejor dentro de la competición global SemEval.  

Igualmente, el empeño de la startup ByHumans consiste en distinguir el trabajo realizado por una máquina del hecho por un humano. Para ello crean una entidad certificadora, registrada ya en la Unión Europea, que acredita que un producto o servicio ha sido ejecutado por una persona y no por una inteligencia.

La chispa se protege es el lema de esta organización que fundan Martí Santiago y Lucía Polinario conscientes de que «la IA solo simula creatividad, pero no es capaz de conjugar ni elaborar nuevos elementos si no es con los datos con los que ya cuenta. Debemos reconocer el aprendizaje, la experiencia, la creación de un estilo propio y la capacidad para arriesgarse y tomar decisiones que nadie haya tomado», defienden.

El riesgo de fraude

Pero más allá de ver a Donald Trump rodeado de votantes negros o al Papa vistiendo un plumas estilo puffer, la ingeniería social afecta también a nuestros bolsillos y a nuestra seguridad. La IA generativa se lo pone más fácil a los estafadores, dada su capacidad no solo de falsificar la imagen, sino también de clonar voces de manera convincente. Es una evolución que ha dado lugar a lo que se conoce como deepfake o falsedad profunda, un tipo de contenido multimedia (vídeo, imagen y audio) que ha sido manipulado utilizando técnicas de IA.

El Instituto Nacional de Ciberseguridad (Incibe) avisaba, a comienzos de julio, de una sofisticada estafa en la que los delincuentes emplean IA para suplantar la voz de algún familiar o allegado. Suelen ser llamadas de apremio en las que piden envío urgente de dinero a un número determinado. Menos sofisticación requiere, por ejemplo, el envío de un mensaje de texto o un correo electrónico que usurpan la identidad de organismos como la DGT notificando recordatorios de multas de tráfico pendientes de pago. Por burda que parezca la estafa, siempre hay alguien que pica.

Se supone que, en el año 2030, habrá más de cincuenta mil millones de dispositivos conectados a internet en todo el mundo, esto es, cincuenta mil millones de usuarios víctimas potenciales de un ciberataque. El problema es que, actualmente, hay más soluciones en el mercado orientadas a proteger a las grandes empresas y a los gobernantes de estas estafas que las que se dirigen al mercado de masas. Por tanto, se trata de un gran nicho todavía por explorar por los emprendedores, teniendo en cuenta que, en un 70% de los casos, son los ciudadanos los afectados por el fraude digital, según el Incibe. 

Lo ideal sería que cada vez que nos llegase al dispositivo un contacto malintencionado, saltara una alarma avisando de la falsedad o, mejor aún, un sistema que filtrase todas esas comunicaciones antes de que se produzcan. Devolver la confianza en un mundo hiperconectado es lo que justifica la existencia de empresas como BlackDice, donde también usan la IA, pero como herramienta defensiva. «Creemos que las personas, las familias y las empresas merecen tener interacciones seguras, protegidas y que preserven la privacidad dentro del mundo digital», dicen.

Sus algoritmos se encaminan a la identificación y neutralización de amenazas en tiempo real. Actualmente trabajan con operadores de telecomunicaciones que integran su tecnología, que opera en el enrutador, para predecir y proteger las redes de banda ancha, los dispositivos y la IoT. Disponen también de soluciones de control parental en defensa del eslabón más débil de la cadena digital, como son los niños y las personas mayores.

La identidad en un mundo phygital

Menos riesgos existirían si, como señala Eduardo Azanza, CEO de Veridas, internet hubiese nacido libre de su pecado original: la ausencia de capas de identidad y pruebas de confianza que sí rigen en el mundo analógico. Precisamente a eso se dedican ellos, a desarrollar tecnologías de verificación de la identidad digital, a través del reconocimiento facial y de voz, a la vez que verifican también documentos oficiales como pueden ser el DNI, permiso de residencia o similares. La solución gira en torno a lo que se denomina identidad phygital —confluencia de lo físico y lo digital— y la trasladan a numerosos sectores como el financiero, turismo o comercio electrónico. 

Uno de los escenarios en los que aplican su tecnología son los casinos y las salas de juego (offline y online) al objeto de evitar el acceso a menores y personas indeseadas. 

También proteger a los menores en internet es lo que persiguen en Bouncer Digital. Su misión es validar la mayoría de edad de los usuarios en procesos de onboarding digital, a través del uso de tecnología registrada de biometría facial e IA y una comprobación del documento de identidad. Los datos de los usuarios durante el proceso de validación son anonimizados, por lo que no pueden ser utilizados ni por ellos ni por terceras empresas colaboradoras. Imposibilitan así el acceso a servicios restringidos a mayores de edad en internet, como pueden ser la compra de alcohol o la entrada a sitios de contenidos para adultos. 

No obstante, hay que señalar que la identidad biométrica tampoco es infalible. El Incibe define la biometría como «un método de reconocimiento de personas basado en sus características fisiológicas o de comportamiento». Pero advierte también de que la probabilidad de que estos sistemas sean objeto de ataque ha aumentado, «ya que los datos biométricos son de gran valor para los ciberdelincuentes». 

Como alternativa, empresas como Worldcoin plantean el reconocimiento del iris como otro método de autentificación más rápido y eficaz. El iris del ojo se considera un dato biométrico de identificación inequívoca que no cambia durante toda la vida. Sin embargo, aunque también aquí se habla de datos anonimizados, del análisis del iris se puede extraer información de cada persona mucho más sensible, como la presencia de una patología o tendencia a padecerla, el estado anímico o el nivel de estrés, entre otros datos. De aquí que el Gobierno de España optara por ordenar el cese de la actividad de Worldcoin en nuestro país. 

* Este artículo se publicó originalmente en el número 119 (septiembre 2024) de la revista Plaza

Noticias relacionadas