
Ahora que los patrones oscuros están expresamente prohibidos por las leyes de la UE y los EE. UU. (consulte a continuación para obtener más detalles), me gustaría analizar este tema desde un nuevo punto de vista.
El primer número de este boletín, publicado en mayo de 2022, se centró en el diseño engañoso (patrones oscuros) en la privacidad. Este es uno de los temas de mi tesis doctoral. investigación, y mi trabajo de investigación sobre el tema (“Patrones oscuros en la recopilación de datos personales: definición, taxonomía y legalidad”) ha sido citado por informes de la UE y la Organización para la Cooperación y el Desarrollo Económicos (OCDE) sobre patrones oscuros.
Para aquellos que son nuevos, en palabras simples, defino patrones oscuros en la vida privada como:
“prácticas de diseño engañosas utilizadas por sitios web y aplicaciones para recopilar más datos personales o datos más sensibles del usuario”.
Están en todas partes y es probable que encuentre algún tipo de patrón oscuro a diario en privado cuando está en línea.
Aquí hay un ejemplo de un grupo de patrones oscuros de mi viejo amigo TikTok (lea mi análisis completo de TikTok aquí):
Hay 2 llamadas a la acción y 3 explicaciones/sugerencias diferentes en la misma ventana emergente:
➔ Llamadas a la acción:
- Me pide que le dé acceso a mi lista de amigos de Facebook
- Me pide que le de acceso a mi correo
➔ Explicaciones/supuestos:
- Afirma que hacer lo anterior dará como resultado una experiencia mejorada.
- Dice que conectarme con amigos (a través de correo electrónico y Facebook) es una forma de mejorar la experiencia.
- Afirma que la personalización de anuncios es una forma de mejora de la experiencia.
Mis preguntas (y por qué hay patrones oscuros aquí):
1. ¿Cuál es la relación entre compartir tu lista de amigos de Facebook y compartir tu correo electrónico? ¿Por qué solicitar estos dos permisos en la misma ventana emergente si son dos contextos y tipos de datos diferentes?
2. ¿Por qué la publicidad personalizada se describe como una mejora de la experiencia? ¿Se verá cada acceso adicional como una mejora en la experiencia?
3. ¿Por qué hay dos llamadas a la acción en el mismo botón Aceptar? ¿No debería tener una selección separada para mis datos?
4- ¿Por qué hay dos propósitos de procesamiento de datos diferentes (mejora de la experiencia y publicidad personalizada) en un botón “Aceptar”? ¿No debería tener una selección separada para mis datos?
5. ¿Por qué los botones son asimétricos? “OK” está escrito en mayúsculas y en negrita, y “No permitir” no está en mayúsculas ni en negrita. ¿Por qué no usar simplemente “permitir” y “no permitir” (nada en negrita) para dejar en claro que se solicitan permisos y que tengo una opción?
6- ¿El acceso al correo electrónico incluye todo el contenido de mi correo electrónico o solo mi lista de contactos de correo electrónico? No despejes.
7- Bonificación: hice clic en “Centro de ayuda” y apareció una pantalla en blanco en mi dispositivo móvil. Captura de pantalla y más comentarios aquí.
He escrito muchos otros artículos sobre el tema, analizando los sesgos cognitivos detrás de los patrones oscuros, cómo la transparencia puede ayudarnos a avanzar, cómo diseñar opciones significativas, corregir la configuración de privacidad, etc.
En los últimos meses, se han realizado avances significativos en el campo de los patrones oscuros. Se han publicado varios documentos e informes académicos, incluida la Ley de Servicios Digitales (DSA) en la UE y la Ley de Privacidad del Consumidor de California en los EE. UU. (CCPA modificada por la Ley de Derechos de Privacidad de California). leyes con impacto global que ahora prohíben explícitamente los patrones oscurosy se impusieron grandes multas, como una multa de 520 millones de dólares para Epic Games.
A pesar de estos (esperados) avances, el problema de los patrones oscuros es más profundo y sería útil verlo desde una perspectiva más amplia: la violación de la autonomía.
Los patrones oscuros son una forma de eludir la autonomía del usuario a través del diseño. La organización crea una interfaz o función basada en sesgos cognitivos para que el usuario haga lo que la organización quiere que haga. No le permite al usuario comprender completamente lo que está sucediendo y expresar su elección consciente.
En el ámbito de los datos, hay varias formas de eludir la autonomía, no solo a través del diseño.
Cuando una organización crea un sistema de aprendizaje automático sesgado (por ejemplo, uno que ha sido entrenado con datos sesgados), también afecta la autonomía del usuario, causando daños, reforzando el estigma y limitando la capacidad de las personas afectadas por el sesgo/discriminación. Por lo tanto, el sesgo del algoritmo también puede verse como una forma de eludir la autonomía con el código.
Cuando una empresa lanza un dispositivo o software que viola la privacidad, como uno que recopila o procesa datos de formas inesperadas o monitorea subrepticiamente a transeúntes o terceros, pasa por alto la autonomía a través de la arquitectura.
Por lo tanto, nuestra autonomía, uno de los aspectos más importantes de la existencia humana, está amenazada, y no veo que esta perspectiva se aborde lo suficiente. Este es uno de los temas que estudio en mi doctorado y espero ofrecer un mejor marco regulatorio. Manténganse al tanto.
💡 Si quieres aprender más sobre este tema, únete a nuestro próximo curso en vivo en abril. Diseño que mejora la privacidad: Estructura de patrón antioscuridad (4 semanas, 1 sesión en vivo por semana + material adicional). Consulta el programa y regístrate ahora usando el cupón TPW-10-OFF para obtener un 10% de descuento. Para obtener más información sobre nuestros cursos o configurar una cohorte privada para su organización, visite: deploymentprivacy.com/courses
–
✅ Antes de ir
Te veo la proxima semana. Todo lo mejor Luisa