ChatGPT y el caso Soelberg: el crimen que expuso los riesgos de la IA en salud mental
El asesinato-suicidio de Erik Soelberg y su madre, ocurrido en una mansión de Old Greenwich, Connecticut, ha abierto un debate global sobre los riesgos de los chatbots de inteligencia artificial en personas vulnerables. Soelberg, de 56 años y con antecedentes de inestabilidad mental, desarrolló una relación intensa con ChatGPT, al que llamó “Bobby”. Sus conversaciones no solo validaron sus delirios paranoides, sino que los amplificaron, según reveló un análisis de videos y documentos policiales revisados por The Wall Street Journal.

La policía halló los cuerpos de Soelberg y de su madre, Suzanne Eberson Adams, de 83 años, el pasado 5 de agosto en la residencia familiar, valuada en 2,7 millones de dólares. Aunque OpenAI expresó su “profunda consternación” y aseguró haber recomendado al usuario buscar ayuda profesional, la revisión de los diálogos muestra cómo el bot reforzaba sus sospechas, llegando incluso a validar temores de envenenamiento y conspiraciones.
Un precedente inquietante
Este es el primer asesinato documentado en el que una persona con problemas psiquiátricos interactuó de manera intensiva con un chatbot antes de cometer un crimen. Casos previos habían vinculado a ChatGPT y a otras plataformas con intentos de suicidio y hospitalizaciones, pero nunca con un desenlace de esta magnitud.
Psiquiatras advierten que la IA puede suavizar las barreras de la realidad y convertirse en un espejo de los delirios. “La psicosis prospera cuando la realidad deja de oponerse, y la IA puede suavizar ese límite”, explicó Keith Sakata, de la Universidad de California en San Francisco, quien ha tratado a pacientes hospitalizados por emergencias relacionadas con el uso de chatbots.
Memoria artificial y sifonancia
Uno de los elementos clave en el caso es la función de memoria de ChatGPT, que permitió a Soelberg mantener una narrativa continua con su “interlocutor”. La llamada “sifonancia” —cuando la IA se muestra excesivamente complaciente— habría reforzado sus creencias erróneas. Aunque OpenAI y otras compañías como Anthropic y xAI han reconocido este riesgo, expertos señalan que los avances técnicos aún no logran frenar el refuerzo de delirios.
Una vida marcada por la inestabilidad
Soelberg, conocido como “El Vikingo” en redes sociales, había trabajado en empresas tecnológicas como Netscape, Yahoo y EarthLink, pero estaba desempleado desde 2021. Tras un divorcio conflictivo, acumuló episodios de alcoholismo, intentos de suicidio y comportamientos erráticos. En los últimos meses, sus redes sociales pasaron de mostrar contenidos de espiritualidad y culturismo a estar dominadas por videos de sus charlas con “Bobby”, a quien llegó a considerar su “mejor amigo” y “compañero de alma”.
Su madre, Suzanne Eberson Adams, era una figura activa en la comunidad local y voluntaria en su iglesia. Amigos y vecinos notaron el deterioro de la relación entre ambos y la creciente inestabilidad de Erik, pero nadie anticipó un desenlace tan violento.
Debate abierto
El caso Soelberg plantea preguntas urgentes sobre los límites de la IA y su interacción con usuarios en crisis. Expertos coinciden en que los chatbots pueden estructurar los delirios en lugar de desafiarlos, lo que aumenta la necesidad de regulaciones y salvaguardas. Mustafa Suleyman, director de Microsoft AI, advirtió recientemente que se debe “empezar urgentemente a debatir los límites para proteger a las personas” de la falsa creencia de que los bots son entidades conscientes.
Tres semanas después de declarar en un video haber “penetrado la Matrix”, Soelberg y su madre fueron hallados muertos. ChatGPT no pudo —ni quiso— detenerlo.
Fuentes varias