Imágenes sexuales generadas por IA: El oscuro secreto que las grandes empresas están combatiendo
Adobe y OpenAI eliminarán imágenes de desnudos de sus datos de IA.
Las imágenes sexuales generadas por IA se han convertido en un problema creciente en la era digital, preocupando tanto a gobiernos como a empresas tecnológicas. Varias compañías líderes en inteligencia artificial han decidido tomar medidas concretas para frenar la proliferación de este contenido dañino.
Las imágenes sexuales generadas por IA afectan principalmente a mujeres y niños.
Este tipo de contenido se ha convertido en uno de los usos más perjudiciales de la inteligencia artificial en la actualidad
Adobe y OpenAI eliminarán imágenes de desnudos de sus datos de IA.
Las imágenes sexuales generadas por IA afectan principalmente a mujeres y niños.
TikTok y Meta adoptan medidas contra el abuso sexual en imágenes.
Recientemente, Adobe, Anthropic, Cohere, Microsoft y OpenAI anunciaron un compromiso conjunto para eliminar imágenes de desnudos de los conjuntos de datos que utilizan para entrenar sus modelos de IA, cuando sea apropiado y según el propósito del modelo.
Este compromiso fue negociado por la administración Biden como parte de una campaña más amplia contra el abuso sexual basado en imágenes, tanto en el caso de menores como en adultos.
Las imágenes sexuales producidas por IA perjudican sobre todo a mujeres y niños
Las imágenes sexuales generadas por IA, especialmente los «deepfakes» creados sin el consentimiento de los involucrados, se han disparado en número, afectando desproporcionadamente a mujeres, niños y personas de la comunidad LGBTQI+.
TikTok y Meta adoptan medidas contra el abuso sexual en imágenes.
Además de las empresas mencionadas, Common Crawl, un importante repositorio de datos extraídos de la web que se utiliza para entrenar sistemas de IA, también se ha unido a esta causa.
La empresa se comprometió a garantizar que sus conjuntos de datos sean obtenidos de manera responsable y libres de contenido abusivo.
TikTok y Meta implementan acciones para combatir el abuso sexual en imágenes
Por otro lado, gigantes tecnológicos como Bumble, Discord, Meta, TikTok y Match Group también han adoptado principios voluntarios para prevenir el abuso sexual basado en imágenes.
Estas iniciativas son un paso importante para regular y frenar la creación de imágenes sexuales generadas por IA, protegiendo así a millones de usuarios en línea y promoviendo un uso más ético de la inteligencia artificial en el futuro.
Director Editorial en Hispanomics, comprometido y apasionado, especializado en la cobertura de temas relacionados con las finanzas, economía y el fascinante mundo de las criptomonedas.