La ética de cuando el aprendizaje automático se vuelve raro: Deadbots

La ética de cuando el aprendizaje automático se vuelve raro: Deadbots

Todo el mundo sabe qué es un chatbot, pero ¿qué tal un deadbot? A robotic muerto es un chatbot cuyos datos de entrenamiento, lo que da forma a cómo y qué se comunica, son datos basados ​​en una character fallecida. Ahora consideremos el caso de un tipo llamado Joshua Barbeau, quien creó un chatbot para simular una conversación con su prometida fallecida. Agregue a esto el hecho de que OpenAI, proveedores de l. a. API GPT-3 que finalmente impulsó el proyecto, tuvieron un problema con esto, ya que sus términos prohíben explícitamente el uso de su API para (entre otras cosas) fines “amorosos”.

[Sara Suárez-Gonzalo], un investigador postdoctoral, observó que los hechos de esta historia se estaban cubriendo lo suficientemente bien, pero nadie los miraba desde otra perspectiva. Ciertamente, todos tenemos concepts sobre qué sabor de correcto o incorrecto satura los diferentes elementos del caso, pero ¿podemos explicar exactamente por qué ¿sería bueno o malo desarrollar un deadbot?

Eso es precisamente lo que [Sara] propuesto hacer. Su artículo es una lectura fascinante y matizada que proporciona una guía concreta sobre el tema.. ¿Es posible el daño? ¿Cómo figura el consentimiento en algo como esto? ¿Quién asume l. a. responsabilidad de los malos resultados? Si está interesado en este tipo de preguntas, tómese el tiempo para consultar su artículo.

[Sara] argumenta que l. a. creación de un robotic muerto podría hacerse de manera ética, bajo ciertas condiciones. Brevemente, los puntos clave son que una character imitada y l. a. que desarrolla e interactúa con ella deberían haber dado su consentimiento, completo con una descripción lo más detallada posible sobre el alcance, el diseño y los usos previstos del sistema. (Tal declaración es importante porque el aprendizaje automático en common cambia rápidamente. ¿Qué pasa si el sistema o las capacidades algún día ya no se parecen a lo que uno imaginó originalmente?) Los angeles responsabilidad de cualquier posible resultado negativo debe ser compartida por quienes lo desarrollan y quienes se benefician de él. .

[Sara] señala que este caso es un ejemplo perfecto de por qué l. a. ética del aprendizaje automático realmente importa, y si no se presta atención a stories cosas, podemos esperar que sigan surgiendo problemas incómodos.

Pasaporte En Linea