Imagina el impacto emocional de escuchar tu propia voz en un contexto que nunca habías autorizado. Esto es lo que les pasó a Linnea Sage y Paul Skye Lehrman, dos actores de voz que descubrieron clones de sus voces creados sin su permiso por una empresa de inteligencia artificial. Este incidente subraya los riesgos de la inteligencia artificial en el campo de la creación de contenidos y plantea serias preguntas sobre los derechos de los creadores en la era digital.
El problema comenzó cuando Sage y Lehrman, mientras conducían hacia una cita médica en Manhattan, escucharon un podcast que discutía los riesgos de la inteligencia artificial para los profesionales del entretenimiento. Para su asombro, el podcast incluía una entrevista con un chatbot que utilizaba la voz de Lehrman. La sorpresa y el desconcierto los llevaron a investigar más a fondo, descubriendo que la empresa Lovo había utilizado sus voces sin autorización.
Sage y Lehrman decidieron demandar a Lovo, argumentando que la empresa violó leyes federales de marcas y varias leyes estatales de privacidad. Este caso no es único; otros creadores, desde artistas hasta programadores, han tomado acciones legales similares contra empresas de inteligencia artificial. Estos conflictos legales evidencian los riesgos de la inteligencia artificial, particularmente cuando las tecnologías se desarrollan sin el consentimiento de los afectados.
Riesgos de la Inteligencia Artificial en la Creación de Contenidos
En su demanda, Sage y Lehrman explicaron cómo fueron engañados por empleados anónimos de Lovo, quienes les pagaron por grabaciones sin revelar su verdadero propósito. Descubrieron que sus voces eran utilizadas no solo en el podcast, sino también en videos promocionales y otros medios. La falta de transparencia y el uso indebido de datos personales son claros ejemplos de los riesgos de la inteligencia artificial cuando no se regulan adecuadamente.
Los riesgos de la inteligencia artificial se extienden más allá del ámbito legal. Lehrman y Sage encontraron clones de sus voces en varios contenidos, incluyendo un video de YouTube sobre la guerra en Ucrania. Esta experiencia les mostró cómo sus voces podían ser replicadas y utilizadas sin control, afectando su reputación y oportunidades laborales. Estos clones de voz, creados sin autorización, demuestran cómo la inteligencia artificial puede amenazar la identidad y la carrera de los profesionales creativos.
Otro aspecto preocupante es la capacidad de estas tecnologías para aprender y replicar patrones de voz con una precisión alarmante. Lovo admitió haber entrenado su sistema con miles de horas de grabaciones de voces. Sin embargo, negaron haber usado las voces de Lehrman y Sage sin consentimiento. Este tipo de prácticas pone en evidencia la necesidad de una regulación estricta para proteger los derechos de los individuos frente a los riesgos de la inteligencia artificial.
El caso de Sage y Lehrman es un precedente importante que podría influir en futuras regulaciones. Según Jeffrey Bennett, asesor general de SAG-AFTRA, este tipo de demandas muestra a las empresas tecnológicas que los derechos sobre la voz y otros aspectos de la identidad deben ser respetados. La demanda busca establecer un marco legal que proteja a los creadores de contenido de los usos indebidos de sus trabajos en el desarrollo de tecnologías de inteligencia artificial.
En conclusión, el caso de Linnea Sage y Paul Skye Lehrman ilustra los riesgos de la inteligencia artificial cuando se utilizan sin el debido consentimiento. La falta de transparencia y la posibilidad de que estas tecnologías se usen para suplantar identidades son desafíos que deben abordarse urgentemente. Si quieres mantenerte al día con los últimos gadgets y tendencias tecnológicas que estoy probando, no dudes en visitar mi Instagram y Facebook en instagram.com/LuisGyG y facebook.com/LuisGyG.
Dejar un comentario
¿Quieres unirte a la conversación?Siéntete libre de contribuir!