Grupos de derechos humanos piden a Zoom que elimine la inteligencia artificial emocional

Grupos de derechos humanos piden a Zoom que elimine la inteligencia artificial emocional

Este sitio puede ganar comisiones de afiliados de los enlaces en esta página. Términos de Uso.

(Foto: Iyus Sugiharto/Unsplash)
Un grupo de organizaciones de derechos humanos está pidiendo a Zoom que frene su plan para introducir inteligencia synthetic que analiza las emociones en su plataforma de videoconferencia.

Zoom ha estado coqueteando con el concepto de emoción AI desde que l. a. pandemia le dio un segundo aire. Como mencionamos el mes pasado, el gigante tecnológico Intel ha estado trabajando junto con una empresa de tool de aprendizaje electrónico para producir un programa de análisis de emociones que se acumula con Zoom. Supuestamente, este programa beneficiaría a los maestros al decirles cuándo los estudiantes parecen confundidos o aburridos, permitiéndoles adaptar su instrucción y aumentar l. a. participación. Protocol informó de manera identical en abril que las empresas han comenzado a usar inteligencia synthetic emocional durante las llamadas de ventas para evaluar el estado de ánimo de los clientes potenciales y ajustar su estrategia en consecuencia. Sin que ellos lo sepan, cada cliente recibe una calificación en una “tarjeta de puntuación de emociones” a lo largo de su llamada.

Los angeles organización sin fines de lucro de derechos digitales Struggle for the Long term se enteró rápidamente del informe de Protocol. Lo mismo hicieron l. a. Unión Estadounidense por las Libertades Civiles (ACLU), Get admission to Now, Jobs With Justice y otros 24 grupos de derechos humanos, todos los cuales firmaron un carta abierta a Zoom publicado el miércoles. Los angeles carta le pide al fundador y director ejecutivo de Zoom, Eric Yuan, que descarte los planes de l. a. compañía de introducir inteligencia synthetic emocional, diciendo que l. a. tecnología es punitiva, manipuladora, discriminatoria, arraigada en l. a. pseudociencia y un riesgo para l. a. integridad de los datos.

(Foto: Charles Deluvio/Unsplash)

“Zoom cube preocuparse por l. a. felicidad y l. a. seguridad de sus usuarios, pero esta tecnología invasiva cube lo contrario”, cube l. a. carta. “Este movimiento para extraer puntos de datos emocionales de los usuarios basado en l. a. falsa concept de que l. a. IA puede rastrear y analizar las emociones humanas es una violación de l. a. privacidad y los derechos humanos. Zoom necesita detener los planes para avanzar en esta función”.

Los angeles carta abierta está lejos de ser l. a. primera en criticar l. a. IA emocional. Muchos han dicho que l. a. tecnología constituye una vigilancia excesiva, especialmente cuando los estudiantes o clientes objetivo no conocen su lenguaje corporal, tono y otros supuestos marcadores emocionales que están siendo evaluados. Otros han dicho que l. a. IA emocional podría terminar ofreciendo análisis negativos (o simplemente incorrectos) de personas cuyas culturas expresan emociones de manera diferente.

Los angeles carta de los grupos de defensa cierra recordándole a Yuan que su compañía anteriormente “tomó decisiones que centran los derechos de los usuarios”, como dar marcha atrás en su decisión de implementar funciones de seguimiento facial debido a problemas de privacidad. “Esta es otra oportunidad para demostrar que te preocupas por tus usuarios y tu reputación”, escriben las organizaciones. “Puede dejar en claro que esta tecnología no tiene cabida en las comunicaciones por video”.

Ahora lee:


Pasaporte En Linea