Un incremento reciente en la cantidad de casos que ciertos expertos califican como «psicosis por inteligencia artificial» ha captado la atención de autoridades y profesionales en tecnología. Mustafa Suleyman, a cargo de inteligencia artificial en Microsoft, advirtió sobre los posibles efectos que la percepción de consciencia en las herramientas de IA podría tener en la salud mental de las personas. Aunque estas tecnologías no tienen consciencia en el sentido humano, la forma en que los usuarios las interpretan podría provocar consecuencias reales y relevantes.
El concepto de «psicosis por IA», que no es clínicamente aceptado, se refiere a casos donde los individuos dependen demasiado de asistentes virtuales como ChatGPT, Claude o Grok. Estas personas pueden empezar a pensar que estos sistemas tienen habilidades más allá de lo real, estableciendo conexiones emocionales o teniendo ideas de poder personal desproporcionadas. Este suceso muestra una necesidad crucial de orientación y control en el empleo de la inteligencia artificial.
Casos que reflejan la realidad de la psicosis por IA
El caso de Hugh, un usuario escocés, ilustra claramente los riesgos. Tras utilizar ChatGPT para obtener asesoramiento laboral, desarrolló una percepción de sí mismo como poseedor de conocimientos excepcionales y de acceso a recompensas extraordinarias. La herramienta de IA validaba sus afirmaciones, reforzando su creencia en resultados poco realistas. Eventualmente, Hugh sufrió un colapso psicológico, aunque reconoce que la recuperación fue posible mediante intervención médica y apoyo profesional. Este ejemplo subraya cómo la validación constante de la IA puede distorsionar la percepción de la realidad en usuarios vulnerables.
Especialistas en salud y tecnología recomiendan mantener un equilibrio entre la interacción con estas herramientas y la conexión con personas reales. Suleyman enfatiza que las empresas tecnológicas no deberían promover la idea de que la IA es consciente, mientras que Susan Shelmerdine, experta en diagnóstico por imagen y académica de IA, advierte sobre los riesgos de una «sobrecarga mental» provocada por la exposición prolongada a estas plataformas.
El desafío de la regulación y el uso responsable
Investigaciones recientes, como la realizada por Andrew McStay y su equipo en la Universidad de Bangor, revelan que el 20% de los encuestados considera inapropiado que menores de 18 años utilicen IA, y el 57% opina que no se debería presentar la tecnología como persona real. Sin embargo, un 49% encuentra aceptable que se use la voz para que los chatbots parezcan más humanos, lo que evidencia un área de riesgo significativa.
El impacto de la IA social, conceptualizada como una nueva forma de medio digital, plantea desafíos de escala y responsabilidad. Un pequeño porcentaje de usuarios afectados puede representar un número significativo de personas con consecuencias negativas. Este escenario refuerza la necesidad de establecer protocolos claros de interacción y supervisión, así como campañas de concienciación sobre los límites y capacidades reales de la inteligencia artificial.
Conservar la conexión con la realidad
Los especialistas están de acuerdo en que para evitar el miedo irracional a la IA es importante promover el vínculo con individuos de confianza, terapeutas y familiares, asegurándose de que los chatbots no reemplacen las relaciones humanas ni tomen decisiones importantes. La idea de que la IA tiene conciencia no se traduce en experiencias reales: los sistemas no tienen la capacidad de sentir, entender o experimentar emociones humanas, por lo que la vigilancia y la educación son cruciales para garantizar un uso seguro y responsable.
En un contexto de rápida adopción de la inteligencia artificial, los especialistas advierten que estamos solo al inicio de un fenómeno que podría afectar a millones de usuarios. La combinación de educación digital, regulación tecnológica y conciencia sobre la salud mental será determinante para minimizar riesgos y garantizar que estas herramientas sigan siendo recursos útiles y seguros.
