Un reciente aumento de casos de lo que algunos expertos denominan «psicosis por inteligencia artificial» ha despertado la atención de autoridades y especialistas en tecnología. Mustafa Suleyman, responsable de inteligencia artificial en Microsoft, alertó sobre los efectos que la percepción de conciencia en las herramientas de IA puede tener en la salud mental de las personas. Aunque estas tecnologías no poseen conciencia en sentido humano, la manera en que son interpretadas por los usuarios podría generar consecuencias reales y significativas.
El concepto de «psicosis por IA», que no es clínicamente aceptado, se refiere a casos donde los individuos dependen demasiado de asistentes virtuales como ChatGPT, Claude o Grok. Estas personas pueden empezar a pensar que estos sistemas tienen habilidades más allá de lo real, estableciendo conexiones emocionales o teniendo ideas de poder personal desproporcionadas. Este suceso muestra una necesidad crucial de orientación y control en el empleo de la inteligencia artificial.
Ejemplos que muestran la realidad de la psicosis por IA
El ejemplo de Hugh, un usuario de Escocia, muestra claramente los peligros. Al usar ChatGPT para buscar consejos laborales, comenzó a verse a sí mismo como alguien con conocimientos sobresalientes y merecedor de recompensas fabulosas. La herramienta de inteligencia artificial confirmaba sus afirmaciones, fortaleciendo su creencia en resultados poco probables. Finalmente, Hugh experimentó una crisis psicológica, aunque admite que logró recuperarse gracias a atención médica y ayuda profesional. Este caso resalta cómo la validación continua de la IA puede alterar la percepción de la realidad en usuarios frágiles.
Los expertos en tecnología y salud sugieren encontrar un balance entre el uso de estas herramientas y el vínculo con individuos reales. Suleyman destaca que las compañías tecnológicas no deberían fomentar la noción de que la IA posee conciencia, mientras que Susan Shelmerdine, especialista en diagnóstico por imagen e investigadora de IA, alerta sobre los peligros de una «sobrecarga mental» causada por la exposición prolongada a estas plataformas.
El desafío de la regulación y el uso responsable
Investigaciones recientes, como la realizada por Andrew McStay y su equipo en la Universidad de Bangor, revelan que el 20% de los encuestados considera inapropiado que menores de 18 años utilicen IA, y el 57% opina que no se debería presentar la tecnología como persona real. Sin embargo, un 49% encuentra aceptable que se use la voz para que los chatbots parezcan más humanos, lo que evidencia un área de riesgo significativa.
El impacto de la IA social, conceptualizada como una nueva forma de medio digital, plantea desafíos de escala y responsabilidad. Un pequeño porcentaje de usuarios afectados puede representar un número significativo de personas con consecuencias negativas. Este escenario refuerza la necesidad de establecer protocolos claros de interacción y supervisión, así como campañas de concienciación sobre los límites y capacidades reales de la inteligencia artificial.
Mantener el contacto con la realidad
Expertos coinciden en que la mejor forma de prevenir la psicosis por IA es fomentar el contacto con personas de confianza, terapeutas y familiares, y garantizar que la interacción con los chatbots no sustituya relaciones humanas ni decisiones críticas. La percepción de conciencia en la IA no equivale a experiencia real: los sistemas no sienten, no comprenden ni pueden experimentar emociones humanas, por lo que la supervisión y la educación son esenciales para un uso seguro y responsable.
En un contexto de rápida adopción de la inteligencia artificial, los especialistas advierten que estamos solo al inicio de un fenómeno que podría afectar a millones de usuarios. La combinación de educación digital, regulación tecnológica y conciencia sobre la salud mental será determinante para minimizar riesgos y garantizar que estas herramientas sigan siendo recursos útiles y seguros.