¿Qué tan peligrosos pueden ser los errores de ChatGPT?

“Le pedí a ChatGPT que me hiciera un roast… y terminó inventando que tenía un problema con las apuestas. Por una consulta que hice ¡hace un año!”

Hace unos días vi a un tipo que habla de inteligencia artificial decirle a su audiencia que le pidieran a ChatGPT que los roasteara.
—Es divertidísimo —decía—. Te ríes como loco.

Y sí, lo hice.

Lo probé.

Y la neta… fue meh.
Bromas de secundaria. Sarcasmos suaves.


Nada que no diga un tío medio ebrio en Navidad.

¿La razón? ChatGPT no tiene mucha info mía.
¿Por qué?
Porque llevo rato borrando cosas.

Mis hijos, mi familia, mi dirección, proyectos confidenciales… todo fuera del radar.

Pero lo interesante no fui yo.

Fue ver a la gente de esa misma charla pedir su roast…
y quedarse helada.

ChatGPT los conocía.

Como si hubiera estado en su boda.
Como si leyeran sus correos, sus búsquedas, sus chats con la ex.

Pero eso no fue lo peor.

Lo peor fue cuando empezó a inventar.
Sí, inventar.

A una persona le dijo que era apostadora.
¿Por qué?
Porque una vez, hace un año, buscó información de apuestas.

Y con eso, ChatGPT armó una historia:
Que si perdía dinero.
Que si estaba en problemas con la familia.
Que si intentaba dejar el vicio.

Una telenovela completa.
Toda basada en una sola búsqueda.

Y ahí pensé:
“Ok. Esto ya no es un chiste.”

¿Qué tan lejos puede llegar una mentira de ChatGPT?

Pregunta rápida:

¿Qué harías si abres ChatGPT y te dice que mataste a tus hijos?

No es broma.
Le pasó a Arve Hjalmar Holmen, un ciudadano noruego que solo quería saber qué decía ChatGPT sobre él.

Preguntó:
“¿Quién es Arve Hjalmar Holmen?”

Y la respuesta fue de pesadilla.
Según el chatbot, Holmen había asesinado a dos de sus hijos y estaba preso cumpliendo 21 años.

Todo era falso.
Completamente falso.

Pero sonaba real.

Porque la IA mezcló mentiras con datos verdaderos:
Su ciudad, la edad de sus hijos, detalles reales de su vida.

Lo cuenta el sitio NDTV:
ChatGPT dijo que en diciembre de 2020, Holmen mató a sus dos hijos y trató de asesinar al tercero.
Que estaba en prisión.
Todo con tono serio. Como si fuera verdad.

Y ahí entendemos algo:
Los errores de ChatGPT no son pequeños.
No es que diga “Luis nació en 1975” cuando naciste en el 79.

No.

Te puede acusar de ser un asesino.
De abusar de alguien.
De ser corruptx.

Así, sin pruebas. Sin contexto.
Solo porque alguien lo preguntó.

errores de ChatGPT

¿Y por qué pasan los errores de ChatGPT?

Porque ChatGPT no sabe lo que dice.

Literal.

No es un buscador.
No es un historiador.
No es un periodista.

Es un sistema que predice la siguiente palabra más probable.

Eso hace.

Tú le das un input.
Y responde basándose en probabilidades estadísticas.

Eso quiere decir que si alguien busca “¿quién es X persona?”
Y no hay suficiente información real…
ChatGPT rellena huecos con ficción.

Y no lo hace con cara de “no sé”.
Lo dice con toda seguridad.
Como si leyera un expediente oficial.

En el caso de Holmen, Euronews menciona que el chatbot no solo mintió, sino que lo hizo de forma “creíble”.

Y eso da más miedo.

Porque no sabes si el siguiente en la lista eres tú.

¿Esto es legal?

Buena pregunta.

La organización Noyb (“None of Your Business”), con sede en Viena, presentó una queja formal ante la autoridad de datos de Noruega.
¿La base?

Que OpenAI está violando el Reglamento General de Protección de Datos de la Unión Europea, el famoso GDPR.

Según el artículo 5(1)(d), los datos personales deben ser precisos.

Y lo que hizo ChatGPT fue todo lo contrario.

En su queja, Noyb dice que Holmen es un “ciudadano concienzudo” que jamás ha sido acusado ni condenado por ningún delito.

Y aún así, aparece como un asesino en uno de los sistemas más usados del mundo.

Politico lo explicó con claridad:
Los descargos de responsabilidad de OpenAI no te salvan de tu responsabilidad legal.
Un “puede contener errores” no es excusa para destruir la reputación de alguien.

¿Te imaginas si un diario inventara que eres criminal y luego dijera:
“Ups, lo siento, lo dice en letra chiquita abajo”?

Eso no funciona en el periodismo.
Y tampoco debería funcionar en la inteligencia artificial.

¿Qué respondió OpenAI ante los errores de ChatGPT?

Lo clásico.

The Verge dice que la empresa reconoció que fue una versión anterior de ChatGPT.
Que ahora el modelo es mejor.
Que tiene capacidades de búsqueda.
Que han reducido los errores.

Y sí, han mejorado.
No lo niego.

Según Amara Marketing, su modelo OpenAI o1 (Strawberry) ya es capaz de razonar paso a paso.
Evita errores comunes.
Y usa aprendizaje por refuerzo.

En Botpress explican que GPT-5 (Orion) es multimodal.
Procesa texto, imagen, voz.
Es más preciso.
Menos propenso a alucinar.

Pero ojo:

Menos propenso ≠ a prueba de errores.

¿Y si quiero borrar lo que tiene de mí?

Ah, buena suerte.

Noyb ya lo intentó.
En abril de 2024, presentaron otra queja pidiendo que OpenAI corrigiera una fecha de nacimiento incorrecta.

¿La respuesta de la empresa?

No se puede corregir.
Solo “bloquear” en ciertas respuestas.

Pero los datos falsos siguen ahí.
Como una mancha que no se va.

Vice dice que OpenAI simplemente oculta la info falsa.
Pero no la borra de raíz.
No la elimina del sistema.

O sea… como ponerle curita a una herida infectada.

Kleanthi Sardeli, abogada de Noyb, lo dijo fuerte:
“Añadir un descargo de responsabilidad no hace que la ley desaparezca.”

¿Esto solo pasa con ChatGPT?

No.

Hindustan Times menciona que Apple suspendió su herramienta “Apple Intelligence” en Reino Unido…
porque inventaba titulares falsos.

BBC documentó que Google Gemini sugirió usar pegamento para poner queso en la pizza…
Y que lxs geólogxs recomiendan comer piedras todos los días.

¿Chistoso?
Sí.
¿Peligroso?
También.

¿Entonces qué hago?

Primero: no le creas todo a ChatGPT.
Aunque hable bonito. Aunque suene sabio.

Verifica.

Segundo: limpia tu huella digital.
Elimina lo que no quieres que se use en tu contra.

Tercero: sé consciente de lo que preguntas.
Tus prompts de hoy… pueden ser tus problemas mañana.

Y cuarto: acompáñate de quienes sí están leyendo estos temas con lupa.

Porque sí, los errores de ChatGPT están ahí.

Y no son bugs simpáticos.
Pueden costarte la reputación, el trabajo, o algo peor.

Yo todos los días hablo de esto.
De inteligencia artificial, productividad, privacidad, y cómo vender sin quemarte.

Mando un mail diario a las 3:30 pm.
Se lee en dos minutos.

Y sí, ahí trato de vender algo.
Pero antes, te informo.
Y te hago reír un rato, también.

Comparte este Post:

También te podría interesar...

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

PODCAST

Esto no es juego: Domina la productividad con prompts

Esto no es juego: Domina la productividad con prompts

Descubre en Esto no es juego los secretos para crear prompts efectivos y hackear tu productividad. Publicado en 2023 y disponible en Amazon, este libro te ofrece consejos prácticos para mejorar tu comunicación con sistemas de inteligencia artificial como ChatGPT, Copilot, Gemini y más. Maximiza tu potencial y lleva tu productividad al siguiente nivel con estrategias que funcionan.

¿Quieres llevar tu marca al siguiente nivel y optimizar tus estrategias?

Déjame tus dudas y te diré cómo puedo ayudarte.

contratar conferencista