La IA nos involucra en la vigilancia | Arvind Sanjeev

En la carrera por hacer que cada nuevo modelo de IA sea mejor que el anterior, las empresas están recurriendo a prácticas poco éticas de recopilación de datos para mantenerse por delante de la competencia. Nuestros datos personales, incluidos registros médicos, fotos, contenido de redes sociales, etc., terminan en conjuntos de datos para entrenar modelos de IA.

Contenido del Articulo

Tus datos han sido robados

¿Estás dispuesto a renunciar a la privacidad por conveniencia?

Leer todas las políticas de privacidad de las grandes empresas tecnológicas con las que te encuentras en un año te llevará 30 días completos de tu vida.
Fuente: El costo de leer las políticas de privacidad.

El hogar es nuestro lugar seguro, pero ¿qué sucede cuando nuestros electrodomésticos comienzan a transmitir nuestros datos? Kashmir Hill y Surya Mattu, periodistas de investigación de datos, revelaron cómo los dispositivos inteligentes en nuestros hogares están haciendo precisamente eso. Al principio, puede parecer mundano que su cepillo de dientes eléctrico envíe datos regularmente a su empresa matriz. Sin embargo, revelaron en su charla TED de 2018 cómo algunos de estos datos recopilados podrían volverse contra nosotros. Por ejemplo, su compañía de seguros dentales puede comprar sus datos de un fabricante de cepillos de dientes y cobrarle una tarifa más alta si no se cepilla los dientes por la noche.

Los conjuntos de datos utilizados para entrenar la IA de síntesis de imágenes se crean extrayendo imágenes en la web, lo que puede o no estar permitido por los titulares de derechos de autor y las entidades. Incluso los registros médicos personales de los pacientes se convierten en datos de entrenamiento para modelos de IA. Lapin, una artista con sede en California, descubrió que sus fotografías médicas tomadas por su médico en 2013 se incluyeron en el conjunto de imágenes LAION-5B, un conjunto de datos utilizado por Stable Diffusion y Google Imagen. Descubrió esto con la herramienta “Have I Been I Been Trained” de la artista Holly Herndon, que permite a cualquier persona comprobar si sus fotos se han utilizado para entrenar modelos de IA.

El conjunto de datos LAION-5B, que contiene más de 5 mil millones de imágenes, incluye pornografía de celebridades editada con Photoshop, pornografía pirateada y no consentida e imágenes gráficas de decapitaciones de ISIS. Más mundanos, incluyen arte de artistas vivos, fotografías de fotógrafos, imágenes médicas y fotografías de personas que aparentemente no creían que sus imágenes se convertirían repentinamente en la base para el entrenamiento de IA.
Fuente: Probablemente la IA esté usando tus imágenes y no es fácil darse por vencido, Vice

Identidades comprometidas

La investigación demuestra que los rostros generados por IA se pueden reconstruir para mostrar a las personas reales que lo inspiraron.

Grabación de pantalla de una plataforma de creación de caras de inteligencia artificial que muestra la biblioteca de caras artificiales.
Rostros generados por IA desde la plataforma: Generated.photos

Las caras generadas por IA ahora son la corriente principal; los diseñadores los usan como modelos para filmar sus productos o como personajes falsos. La idea era que, dado que no eran personas reales, no necesitaban consentimiento. Sin embargo, estos rostros generados no son tan únicos como parecen. En 2021, los investigadores pudieron tomar una cara generada por GAN y devolverlo a sus rostros humanos originales del conjunto de datos que lo inspiró. Los rostros generados se parecen a los originales con ligeras modificaciones, lo que revela las identidades reales de las personas en estos conjuntos de datos.

La columna izquierda de cada bloque muestra las caras generadas por la GAN. Estas caras falsas van seguidas de tres fotos de personas reales identificadas en los datos de entrenamiento. Fuente: Esta persona (probablemente) existe

A diferencia de las GAN, que generan imágenes muy similares a las muestras de entrenamiento como las anteriores, se considera que los modelos de difusión (DALL-E o Midjourney) producen imágenes más realistas que son significativamente diferentes de las imágenes del conjunto de entrenamiento. Al crear nuevas imágenes, se les ocurrió una forma de mantener la privacidad de las personas en el conjunto de datos. Sin embargo, un artículo titulado Extracción de datos de entrenamiento de modelos de difusión muestra cómo los modelos de difusión recuerdan imágenes individuales de sus datos de entrenamiento y las reconstruyen en tiempo de ejecución. Estos experimentos están revisando la noción popular de que los modelos de IA son “cajas negras” que no revelan nada en su interior.

Vigilancia de IA

Recargue la Sociedad de la Observación con IA

Uno de los casos más controvertidos de vigilancia intelectual ocurrió durante las protestas de Hong Kong de 2019. La policía utilizó tecnología de reconocimiento facial para identificar a los manifestantes y castigarlos individualmente. Los manifestantes se dieron cuenta de esto y apuntaron sus punteros láser pirateados a las cámaras para quemar sus sensores de imagen.

Previous post 25 fuentes de tatuajes de las que no te arrepentirás
Next post OpenAI acusado de robo de datos en California

Deja una respuesta