Los deepfakes generados por IA son realistas, fáciles de hacer para casi cualquier persona y se utilizan cada vez más para el fraude, el abuso y la manipulación, en especial para dirigirse a niños y personas mayores. Si bien el sector tecnológico y los grupos sin fines de lucro han tomado medidas recientes para abordar este problema, se ha hecho evidente que nuestras leyes también deberán evolucionar para combatir el fraude de deepfakes. En resumen, necesitamos nuevas leyes que ayuden a evitar que los malos actores utilicen deepfakes para estafar a las personas mayores o abusar de los niños.
Si bien nosotros y otros nos hemos centrado, con razón, en los deepfakes utilizados para interferir en las elecciones, el amplio papel que desempeñan en estos otros tipos de delitos y abusos necesita la misma atención. Por fortuna, los miembros del Congreso de los Estados Unidos han propuesto una serie de proyectos de ley que contribuirían en gran medida a abordar el problema, la Administración se centra en el problema, grupos como AARP y NCMEC están involucrados a fondo en dar forma a la discusión, y la industria ha trabajado en conjunto y ha construido una base sólida en áreas adyacentes que se puede aplicar aquí.
Una de las cosas más importantes que puede hacer Estados Unidos es aprobar un estatuto integral de fraude de deepfakes para evitar que los ciberdelincuentes utilicen esta tecnología para robar a los estadounidenses de a pie.
No tenemos todas las soluciones ni las perfectas, pero queremos contribuir y acelerar la acción. Es por eso que hoy publicamos 42 páginas sobre lo que nos ha llevado a comprender el desafío, así como un conjunto completo de ideas, incluidos el respaldo al arduo trabajo y las políticas de otros. A continuación se muestra el prólogo que he escrito a lo que publicamos.
Lo siguiente ha sido escrito por Brad Smith para el informe de Microsoft Protecting the Public from Abusive AI-Generated Content. Encuentren la copia completa del informe aquí: https://aka.ms/ProtectThePublic
«El mayor riesgo no es que el mundo haga demasiado para resolver estos problemas. Es que el mundo hará muy poco. Y no es que los gobiernos vayan a moverse demasiado rápido. Es que serán demasiado lentos».
Con esas frases concluye el libro del que fui coautor en 2019 titulado «Herramientas y armas». Como sugiere el título, el libro explora cómo la innovación tecnológica puede servir como una herramienta para el avance de la sociedad y como un arma poderosa. En el panorama digital actual, que evoluciona con rapidez, el auge de la inteligencia artificial (IA) presenta oportunidades sin precedentes y desafíos significativos. La IA transforma las pequeñas empresas, la educación y la investigación científica; ayuda a los médicos e investigadores médicos a diagnosticar y descubrir curas para enfermedades; y está potencia la capacidad de los creadores para expresar nuevas ideas. Sin embargo, esta misma tecnología también produce un aumento en el contenido abusivo generado por la IA, o como discutiremos en este artículo, contenido «sintético» abusivo.
Cinco años después, nos encontramos en un momento de la historia en el que cualquier persona con acceso a Internet puede utilizar herramientas de IA para crear una pieza muy realista de medios sintéticos que puede utilizarse para engañar: un clon de la voz de un miembro de la familia, una imagen deepfake de un candidato político o incluso un documento gubernamental manipulado. La IA ha hecho que la manipulación de medios sea mucho más fácil: más rápida, más accesible y que requiere poca habilidad. Con la misma rapidez con la que la tecnología de IA se ha convertido en una herramienta, se ha convertido en un arma. Al cierre de este documento, el gobierno de EE. UU. anunció de manera reciente que interrumpió con éxito una operación de desinformación mejorada por IA patrocinada por un estado-nación. El director del FBI, Christopher Wray, dijo en su declaración: «Rusia tenía la intención de utilizar esta granja de bots para difundir desinformación extranjera generada por IA, con el objetivo de ampliar su trabajo con la ayuda de la IA para socavar a nuestros socios en Ucrania e influir en las narrativas geopolíticas favorables al gobierno ruso». Si bien debemos felicitar a las fuerzas del orden público de los EE. UU. por trabajar de manera cooperativa y exitosa con una plataforma tecnológica para llevar a cabo esta operación, también debemos reconocer que este tipo de trabajo apenas comienza.
El propósito de este libro blanco es fomentar una acción más rápida contra el contenido abusivo generado por IA por parte de los responsables políticos, los líderes de la sociedad civil y la industria tecnológica. A medida que navegamos por este complejo terreno, es imperativo que los sectores público y privado se unan para abordar este problema de frente. El gobierno desempeña un papel crucial en el establecimiento de marcos regulatorios y políticas que promuevan el desarrollo y el uso responsables de la IA. En todo el mundo, los gobiernos toman medidas para mejorar la seguridad en línea y abordar el contenido ilegal y dañino.
El sector privado tiene la responsabilidad de innovar e implementar salvaguardas que eviten el uso indebido de la IA. Las empresas tecnológicas deben dar prioridad a las consideraciones éticas en sus procesos de investigación y desarrollo de IA. Al invertir en técnicas avanzadas de análisis, divulgación y mitigación, el sector privado puede desempeñar un papel fundamental para frenar la creación y difusión de contenidos nocivos generados por la IA, para mantener así la confianza en el ecosistema de la información.
La sociedad civil desempeña un papel importante a la hora de garantizar que tanto la regulación gubernamental como la acción voluntaria de la industria defiendan los derechos humanos fundamentales, como la libertad de expresión y la privacidad. Al fomentar la transparencia y la rendición de cuentas, podemos generar confianza pública en las tecnologías de IA.
Las siguientes páginas hacen tres cosas específicas: 1) ilustrar y analizar los daños derivados del contenido abusivo generado por IA, 2) explicar cuál es el enfoque de Microsoft y 3) ofrecer recomendaciones de políticas para comenzar a combatir estos problemas. En última instancia, abordar los desafíos que surgen del contenido abusivo generado por IA requiere un frente unido. Al aprovechar las fortalezas y la experiencia de los sectores público, privado y de las ONG, podemos crear un entorno digital más seguro y confiable para todos. Juntos, podemos liberar el poder de la IA para el bien, al tiempo que nos protegemos de sus peligros potenciales.
La responsabilidad de Microsoft de combatir el contenido abusivo generado por IA
A principios de este año, esbozamos un enfoque integral para combatir el contenido abusivo generado por IA y proteger a las personas y las comunidades, basado en seis áreas de enfoque:
- Una sólida arquitectura de seguridad.
- Procedencia de medios y marcas de agua duraderas.
- Proteger nuestros servicios de contenido y conductas abusivas.
- Sólida colaboración entre la industria y con los gobiernos y la sociedad civil.
- Legislación modernizada para proteger a las personas del abuso de la tecnología.
- Sensibilización y educación pública.
Un aspecto central de estas seis cuestiones es nuestra responsabilidad de ayudar a abordar el uso abusivo de la tecnología. Creemos que es imperativo que el sector tecnológico tome medidas proactivas de manera continua, para abordar los daños que hemos visto en todos los servicios y plataformas. Hemos tomado medidas concretas, entre ellas:
- Implementación de una arquitectura de seguridad que incluya análisis de equipo rojo, clasificadores preventivos, bloqueo de avisos abusivos, pruebas automatizadas y prohibiciones rápidas de usuarios que abusan del sistema.
- Adjuntar de manera automática metadatos de procedencia a imágenes generadas con el modelo DALL-E 3 de OpenAI en Azure OpenAI Service, Microsoft Designer y Microsoft Paint.
- Desarrollar estándares para la procedencia y autenticación del contenido a través de la Coalición para la Procedencia y Autenticidad del Contenido (C2PA, por sus siglas en inglés) e implementar el estándar C2PA para que el contenido que lleva la tecnología se etiquete de manera automática en LinkedIn.
- Tomar medidas continuas para proteger a los usuarios de los daños en línea, incluso uniéndose al programa Lantern de Tech Coalition y ampliar la disponibilidad de PhotoDNA.
- Lanzamiento de nuevas herramientas de detección como Azure Operator Call Protection para que nuestros clientes detecten posibles estafas telefónicas mediante IA.
- Cumplir nuestros compromisos con el nuevo Acuerdo Tecnológico para combatir el uso engañoso de la IA en las elecciones.
Proteger a los estadounidenses a través de nuevas medidas legislativas y políticas
En febrero de este año, Microsoft y LinkedIn se unieron a docenas de otras empresas tecnológicas para lanzar el Acuerdo Tecnológico para Combatir el Uso Engañoso de la IA en las Elecciones de 2024 en la Conferencia de Seguridad de Múnich. El Acuerdo insta a la acción en tres pilares clave que utilizamos para inspirar el trabajo adicional que se encuentra en este documento técnico: abordar la creación de deepfakes, detectar y responder a los deepfakes, y promover la transparencia y la resiliencia.
Además de combatir los deepfakes de IA en nuestras elecciones, es importante que los legisladores y los responsables políticos tomen medidas para ampliar nuestras capacidades colectivas para (1) promover la autenticidad del contenido, (2) detectar y responder a los deepfakes abusivos, y (3) dar al público las herramientas para aprender sobre los daños sintéticos de la IA. Hemos identificado nuevas recomendaciones de políticas para los responsables de la formulación de políticas en los Estados Unidos. Al pensar en estas ideas complejas, también debemos recordar pensar en este trabajo en términos sencillos. Estas recomendaciones tienen como objetivo:
- Proteger nuestras elecciones.
- Proteger a las personas mayores y a los consumidores del fraude en línea.
- Proteger a las mujeres y los niños de la explotación en línea.
En ese sentido, vale la pena mencionar tres ideas que pueden tener un impacto descomunal en la lucha contra el contenido engañoso y abusivo generado por IA.
- En primer lugar, el Congreso debería promulgar un nuevo «estatuto federal de fraude de deepfakes«. Necesitamos dar a los funcionarios encargados de hacer cumplir la ley, incluidos los fiscales generales de los estados, un marco legal independiente para enjuiciar el fraude y las estafas generadas por IA a medida que proliferan en velocidad y complejidad.
- En segundo lugar, el Congreso debería exigir a los proveedores de sistemas de IA que utilicen herramientas de procedencia de última generación para etiquetar el contenido sintético. Esto es esencial para generar confianza en el ecosistema de la información y ayudará al público a comprender mejor si el contenido es generado o manipulado por IA.
- En tercer lugar, debemos asegurarnos de que nuestras leyes federales y estatales sobre la explotación y el abuso sexual infantil y las imágenes íntimas no consentidas se actualicen para incluir contenido generado por IA. Las sanciones por la creación y distribución de CSAM y NCII (ya sean sintéticos o no) son de sentido común y muy necesarias si queremos mitigar el flagelo de los malos actores que utilizan herramientas de IA para la explotación sexual, en especial cuando las víctimas suelen ser mujeres y niños.
No se trata necesariamente de ideas nuevas. La buena noticia es que algunas de estas ideas, de una forma u otra, ya han empezado a echar raíces en el Congreso y las legislaturas estatales. Destacamos piezas específicas de legislación que se ajustan a nuestras recomendaciones en este documento, y alentamos su pronta consideración por parte de nuestros funcionarios electos estatales y federales.
Microsoft ofrece estas recomendaciones para contribuir al diálogo tan necesario sobre los daños de los medios sintéticos de la IA. La puesta en práctica de cualquiera de estas propuestas requerirá, de manera fundamental, un enfoque de toda la sociedad. Si bien es imperativo que la industria tecnológica tenga un asiento en la mesa, debe hacerlo con humildad y un sesgo hacia la acción. Microsoft da la bienvenida a ideas adicionales de las partes interesadas en todo el ecosistema digital para abordar los daños del contenido sintético. En última instancia, el peligro no es que nos movamos demasiado rápido, sino que nos movemos demasiado lento o no lo hacemos en absoluto.