Imágenes sexuales generadas por IA: El oscuro secreto que las grandes empresas están combatiendo

Las imágenes sexuales generadas por IA se han convertido en un problema creciente en la era digital, preocupando tanto a gobiernos como a empresas tecnológicas. Varias compañías líderes en inteligencia artificial han decidido tomar medidas concretas para frenar la proliferación de este contenido dañino.

Las imágenes sexuales generadas por IA afectan principalmente a mujeres y niños.

Este tipo de contenido se ha convertido en uno de los usos más perjudiciales de la inteligencia artificial en la actualidad

Recientemente, Adobe, Anthropic, Cohere, Microsoft y OpenAI anunciaron un compromiso conjunto para eliminar imágenes de desnudos de los conjuntos de datos que utilizan para entrenar sus modelos de IA, cuando sea apropiado y según el propósito del modelo.

Este compromiso fue negociado por la administración Biden como parte de una campaña más amplia contra el abuso sexual basado en imágenes, tanto en el caso de menores como en adultos.

También puedes ver: Predicción según analistas: Este líder en IA caerá más del 50%

Las imágenes sexuales producidas por IA perjudican sobre todo a mujeres y niños

Las imágenes sexuales generadas por IA, especialmente los «deepfakes» creados sin el consentimiento de los involucrados, se han disparado en número, afectando desproporcionadamente a mujeres, niños y personas de la comunidad LGBTQI+.

TikTok y Meta adoptan medidas contra el abuso sexual en imágenes.

Además de las empresas mencionadas, Common Crawl, un importante repositorio de datos extraídos de la web que se utiliza para entrenar sistemas de IA, también se ha unido a esta causa.

La empresa se comprometió a garantizar que sus conjuntos de datos sean obtenidos de manera responsable y libres de contenido abusivo.

TikTok y Meta implementan acciones para combatir el abuso sexual en imágenes

Por otro lado, gigantes tecnológicos como Bumble, Discord, Meta, TikTok y Match Group también han adoptado principios voluntarios para prevenir el abuso sexual basado en imágenes.

Estas iniciativas son un paso importante para regular y frenar la creación de imágenes sexuales generadas por IA, protegiendo así a millones de usuarios en línea y promoviendo un uso más ético de la inteligencia artificial en el futuro.

También puedes ver: Nvidia en problemas legales: ¿Su monopolio en GPU está en peligro?

Fuente: AP

Sugeridos...