Las imágenes sexuales generadas por IA se han convertido en un problema creciente en la era digital, preocupando tanto a gobiernos como a empresas tecnológicas. Varias compañías líderes en inteligencia artificial han decidido tomar medidas concretas para frenar la proliferación de este contenido dañino.

Este tipo de contenido se ha convertido en uno de los usos más perjudiciales de la inteligencia artificial en la actualidad
- Adobe y OpenAI eliminarán imágenes de desnudos de sus datos de IA.
- Las imágenes sexuales generadas por IA afectan principalmente a mujeres y niños.
- TikTok y Meta adoptan medidas contra el abuso sexual en imágenes.
- Recomendamos: ¿Cómo afectará el impacto de la IA tu trabajo? Descúbrelo aquí
Recientemente, Adobe, Anthropic, Cohere, Microsoft y OpenAI anunciaron un compromiso conjunto para eliminar imágenes de desnudos de los conjuntos de datos que utilizan para entrenar sus modelos de IA, cuando sea apropiado y según el propósito del modelo.
Este compromiso fue negociado por la administración Biden como parte de una campaña más amplia contra el abuso sexual basado en imágenes, tanto en el caso de menores como en adultos.
También puedes ver: Predicción según analistas: Este líder en IA caerá más del 50%
Las imágenes sexuales producidas por IA perjudican sobre todo a mujeres y niños
Las imágenes sexuales generadas por IA, especialmente los «deepfakes» creados sin el consentimiento de los involucrados, se han disparado en número, afectando desproporcionadamente a mujeres, niños y personas de la comunidad LGBTQI+.

Además de las empresas mencionadas, Common Crawl, un importante repositorio de datos extraídos de la web que se utiliza para entrenar sistemas de IA, también se ha unido a esta causa.
La empresa se comprometió a garantizar que sus conjuntos de datos sean obtenidos de manera responsable y libres de contenido abusivo.
También puedes ver: ¡Impactante! Apple Intelligence lleva la IA a un nuevo nivel en iPhone y Mac
TikTok y Meta implementan acciones para combatir el abuso sexual en imágenes
Por otro lado, gigantes tecnológicos como Bumble, Discord, Meta, TikTok y Match Group también han adoptado principios voluntarios para prevenir el abuso sexual basado en imágenes.
Estas iniciativas son un paso importante para regular y frenar la creación de imágenes sexuales generadas por IA, protegiendo así a millones de usuarios en línea y promoviendo un uso más ético de la inteligencia artificial en el futuro.
También puedes ver: Nvidia en problemas legales: ¿Su monopolio en GPU está en peligro?