La copresidenta del Consejo Asesor de Inteligencia Artificial (IA) de Naciones Unidas, Carme Artigas, identificó dos riesgos fundamentales en el desarrollo de la inteligencia artificial: las tecnologías que simulan ser personas y la amenaza vinculada a la comercialización de datos neuronales.
Intervención en conferencia internacional
Artigas, quien también fue secretaria de Estado de Digitalización e Inteligencia Artificial, participó en Santa Cruz (Oleiros, España) en una de las conferencias internacionales ‘Women in Data Science’ impulsadas por la Universidad de Stanford (Estados Unidos). Estos eventos buscan visibilizar el talento femenino en ciencia de datos, inteligencia artificial e innovación tecnológica.
Desmitificando ideas preconcebidas
En su intervención, Artigas quiso combatir la idea de que “Estados Unidos inventa, China copia y Europa regula”. Detalló que China posee el 40% de las patentes de IA a nivel mundial, el doble que Estados Unidos, y cuenta con una legislación “muchísimo más dura que la europea”. Por su parte, Estados Unidos tiene 350 leyes en este ámbito, y California y Texas poseen las normas más restrictivas, pero a la vez “son los sitios de mayor innovación”.
Señaló que “la clave para la adopción masiva de cualquier cosa es la confianza” y que en Europa, con la IA, “las empresas aún no se fían”. Por ello, apostó por trabajar en ese ámbito, aunque advirtió sobre los riesgos existentes.
Los dos grandes riesgos según Carme Artigas
Suplantación de identidad
El primer riesgo es la impersonación, es decir, la simulación por parte de la IA de que es una persona real. Artigas no ve “ni una sola razón” para ello: “Estamos a un paso de la manipulación”, afirmó. En ese sentido, censuró la postura del magnate tecnológico Mark Zuckerberg, quien alertó sobre “una pandemia de soledad en el mundo” que dice que resolverá. “No quieres resolver el problema de la soledad, lo quieres monetizar”, valoró Artigas.
Comercialización de datos cerebrales
El segundo mayor riesgo está relacionado con los datos cerebrales, que constituyen una cruzada personal para Artigas. Considera que no debe ser posible “comercializar datos neuronales”. “No podría dormir tranquila si mis datos estuvieran en manos ajenas. La única manera de proteger esto es si asumimos que son como un órgano humano, porque en ningún sitio del mundo se puede comerciar con órganos, es la única salvaguarda”, apuntó. Actualmente ya es posible extraer mucha información del uso de las redes sociales, por lo que sostiene que un acceso al cerebro implicaría una amenaza crítica.
Llamado a una reflexión global
Artigas opinó que la situación actual de desarrollo de la IA sobrepasa límites, por lo que cree que hace falta “una Hiroshima de la IA” en forma de “una catástrofe controlada” para llegar a la conclusión de que “nos hemos pasado de vueltas”.



