Impacto de la tecnología emocional en nuestra privacidad – LegalToday – Legal Today

¿Pueden los avances tecnológicos revelar nuestro estado emocional?

A pesar de los recientes estudios e informes que afirman que este tipo de tecnologías son poco éticas además de imprecisas, cada vez más, proliferan en el mercado tecnologías de reconocimiento de emociones mediante el uso de inteligencia artificial (IA) para detectar y controlar las expresiones faciales humanas y conocer así como se siente una persona, llegando incluso a determinar el candidato “idóneo” para un determinado puesto de trabajo o hacernos recomendaciones a la hora de seleccionar un tipo de música o la lectura de un libro según nuestro estado de ánimo .

Pues bien, nuestro Supervisor Europeo de Protección de Datos (en adelante SEPD), publica regularmente los informes “TechDispatch” cuyo objetivo consiste en explicar los desarrollos tecnológicos emergentes, evaluando los posibles impactos en la privacidad y la protección de datos personales. Es precisamente en uno de estos últimos informes donde el SEPD pone el foco y analiza el uso de este tipo de tecnologías de reconocimiento de emociones y su impacto en la protección de datos.

Para empezar ¿En qué consiste la tecnología de reconocimiento emocional?

El reconocimiento de emociones faciales (en adelante FER por sus siglas en inglés) es la tecnología que analiza las expresiones faciales tanto de imágenes estáticas como de videos para revelar información sobre el estado emocional de una persona. Dependiendo del algoritmo, las expresiones faciales se pueden clasificar en emociones básicas (por ejemplo, ira, disgusto, miedo, alegría, tristeza y sorpresa) o emociones compuestas (por ejemplo, felizmente sorprendido, tristemente temeroso, tristemente enojado) En otros casos, las expresiones faciales podrían estar relacionadas con el estado mental fisiológico o mental (por ejemplo, cansancio o aburrimiento).

La complejidad de las expresiones faciales, el uso potencial de la tecnología en cualquier contexto y la participación de nuevas tecnologías como la inteligencia artificial plantean riesgos significativos para la privacidad.

Mientras que el uso de aplicaciones biométricas utiliza el aprendizaje automático para identificar o verificar las identidades de las personas utilizando sus rostros, en las aplicaciones de reconocimiento de emociones se utiliza el aprendizaje automático en un intento de identificar los estados emocionales de los individuos y clasificarlos en categorías concretas, como ira, sorpresa, miedo, felicidad, etc.

Las tecnologías de reconocimiento de emociones pretenden inferir el estado afectivo interno de una persona en función de rasgos como los movimientos musculares faciales, el tono vocal, los movimientos corporales y otras señales biométricas. Utilizan el aprendizaje automático (la técnica más popular en el campo de la IA) para analizar las expresiones faciales y otros datos biométricos y, posteriormente, deducir el estado emocional de una persona.

Son muchos los usos potenciales de FER abarcando una amplia gama de aplicaciones por diferentes sectores y contextos que pueden ir desde el análisis de nuestra experiencia de compra como consumidores hasta detectar enfermedades e incluso implementar estrategias de prevención contra el fraude.

¿Pero que riesgos implican desde el punto de vista de la protección de datos?

Debido a al uso de datos biométricos y tecnologías de inteligencia artificial, FER comparte algunos de los riesgos de usar el reconocimiento facial y la inteligencia artificial. Sin embargo, esta tecnología conlleva también sus propios riesgos específicos y que pasamos a detallar:

PRIMERO. -Necesidad y proporcionalidad

Convertir las expresiones humanas en una fuente de datos para deducir las emociones afecta claramente una parte de la esfera más íntima de las personas.  Al ser una tecnología “disruptiva”, FER plantea importantes dudas con respecto a la necesidad y la proporcionalidad de uso.

Hay que evaluarlo detenidamente, y determinar si el despliegue de este tipo de tecnología es realmente necesario para alcanzar los objetivos perseguidos o si existe una alternativa menos eficaz.  Existe el riesgo de aplicar FER sin realizar una evaluación de necesidad y proporcionalidad para cada caso concreto. La proporcionalidad depende de muchos factores, como el tipo de datos recopilados, el período de conservación de los datos o el posible tratamiento ulterior de los mismos.

SEGUNDO. -Precisión de los datos

El análisis de las emociones basado en las expresiones faciales puede no ser preciso, ya que las expresiones faciales pueden variar ligeramente entre los individuos, pueden mezclar diferentes estados emocionales experimentados al mismo tiempo (por ejemplo, miedo e ira, feliz y triste) o puede no expresar una emoción en absoluto. Por otro lado, hay emociones que pueden no expresarse en la cara de alguien, por lo que la deducción basada únicamente en la expresión facial puede conducir a conclusiones erróneas. Además, existen factores adicionales que pueden aumentar la ambigüedad de las expresiones faciales, como el sarcasmo y el contexto sociocultural. Además, los aspectos técnicos (diferentes ángulos de la cámara, condiciones de iluminación y enmascaramiento de varias partes de la cara) pueden afectar la calidad de una expresión facial capturada.

TERCERO. -Equidad

La precisión de los resultados del algoritmo de emoción facial puede desempeñar un papel importante en la discriminación por motivos de color de piel u origen étnico. Se ha encontrado que las normas sociales y las diferencias culturales influyen en el nivel de expresión de algunas emociones. Por ejemplo, un estudio que probó algoritmos de reconocimiento de emociones faciales reveló que asignaban más emociones negativas (ira) a los rostros de las personas de ascendencia africana que a otras caras. Por tanto, nos encontramos con la existencia de claros sesgos raciales, culturales y sexuales en los algoritmos.

Elegir el conjunto de datos adecuado que represente es crucial para evitar la discriminación. Si los datos de entrenamiento no son lo suficientemente diversos, la tecnología podría estar sesgada en contra de la población subrepresentada. La discriminación provocada por una base de datos defectuosa o por errores en la detección del estado emocional correcto puede tener efectos graves, por ejemplo, la negativa para utilizar o acceder a ciertos servicios o hasta hacer un diagnóstico médico erróneo.

CUARTO. -Transparencia y Control

Las imágenes faciales y el video se pueden capturar en cualquier lugar, gracias a la ubicuidad y el pequeño tamaño de las cámaras. Las cámaras de vigilancia en espacios públicos o establecimientos comerciales no son las únicas cámaras que capturan de forma remota las imágenes faciales, ya que los propios dispositivos móviles pueden capturar expresiones durante su uso. En estas situaciones, surgen problemas de transparencia tanto en relación con la recopilación como con el tratamiento posterior de datos personales.

Cuando las expresiones faciales se capturan de forma remota, no estamos a los interesados informando de una forma clara y concisa de que sistema o aplicación procesará sus datos, y para qué y/o con qué fines. Como resultado, no estarían en condiciones de dar libremente su consentimiento o ejerciendo el control sobre el procesamiento de sus datos personales, incluido su cesión a terceros.

QUINTA. -Procesamiento de categorías especiales de datos personales

La tecnología FER puede detectar la existencia, los cambios o la falta total de expresiones faciales, y vincular esto a un estado emocional. Como resultado, en algunos contextos, los algoritmos pueden inferir categorías especiales de datos personales, como opiniones políticas o datos de salud.

Además, el análisis de datos históricos sobre el estado emocional de uno puede revelar otras condiciones de salud como la depresión. Tales datos, si se utilizan en el contexto de la atención de la salud, podrían ayudar en la predicción y el tratamiento oportuno de un paciente. Sin embargo, cuando los interesados no son capaces de controlar el flujo de información derivada y su uso en otros contextos, pueden enfrentarse al uso no autorizados de dichos datos personales especialmente sensibles desencadenando situaciones discriminatorias como por ejemplo la hora de contratar un seguro o postular a una oferta de trabajo.

SEXTA. -Perfilado y toma de decisiones automatizada

Al igual que otras tecnologías biométricas (como el reconocimiento facial), el uso del reconocimiento de emociones implica la recopilación masiva de datos personales, lo que permite el seguimiento, el monitoreo y la elaboración de perfiles de individuos, en tiempo real.

La tecnología FER se puede utilizar aún más para crear perfiles de personas en una serie de situaciones. Podría utilizarse para obtener la aceptación de un producto o servicio. También se puede utilizar para aumentar la productividad y la resistencia a la fatiga en un puesto de trabajo sin que seamos conscientes de ello. Además, el conocimiento de las emociones de los individuos puede facilitar su manipulación, obligando a las personas a realizar acciones que de otra manera no harían, por ejemplo, para comprar bienes que no necesitan.

La tecnología FER podría utilizarse con el fin de salvaguardar la seguridad pública, por ejemplo, en eventos deportivos o aeropuertos, para identificar terroristas potenciales. Sin embargo, si dicha identificación se basa únicamente en FER y no se combina con otras acciones o desencadenantes de que esta persona es peligrosa, esto podría introducir más riesgos para los interesados. Por ejemplo, una persona podría estar sujeta a retrasos injustificados para realizar más controles o investigaciones de seguridad, lo que le haría perder su participación en un evento, el embarque en un vuelo o incluso conducir a una situación injustificada de arresto entre otras.

Como conclusión, analizados los riesgos de esta tecnología emergente y su impacto perjudicial en las libertades individuales y los derechos humanos no existen a día de hoy evidencias suficientes acerca de la necesidad y proporcionalidad de las mismas. A mayor abundamiento, dado que el reconocimiento de emociones se basa en muchos casos en sistema de vigilancia masiva, el mismo puede tener un impacto desproporcionado en los grupos históricamente desfavorecidos conduciendo a situaciones discriminatorias. En este sentido, haciéndonos eco de los últimos informes por parte de organizaciones internacionales y más concretamente en una de las últimas opiniones conjuntas del CEPD y el SEPD (sobre la propuesta de la Comisión Europea de la futura ley de inteligencia artificial y al que el Parlamento Europeo ha dado recientemente luz verde), ambas instituciones alertan de sus múltiples riesgos y recomienda su uso exclusivamente para casos muy excepcionales con fines de salud o investigación científica y siempre y en todo caso atendiendo a los límites de la protección de datos. Estaremos por tanto atentos a los nuevos avances normativos y nuevos usos de la Inteligencia Artificial.

Valora este contenido.

Puntuación:

Sé el primero en puntuar este contenido.