Con la inteligencia artificial al alcance de cualquier persona con acceso a internet, muchos utilizan chatbots como ChatGPT pretendiendo emplear la herramienta para temas que van desde ayuda psicológica hasta consejos nutricionales.
Los expertos ya advierten que dejar en manos de una IA cosas tan importantes como la salud, la nutrición o incluso la salud mental -que requieren de acompañamiento profesional- representa un riesgo enorme.
Desafortunadamente, un nuevo caso que evidencia esta problemática tendencia ha llamado la atención. Un hombre de 60 años fue ingresado de urgencia después de acudir a la inteligencia artificial de OpenAI en busca de consejos para modificar su dieta, y el chatbot le recomendó sustituir la sal de mesa por bromuro de sodio; recomendación que aplicó durante tres meses antes de terminar en urgencias.
El lamentable suceso comenzó luego de que hombre despertará interés en encontrar una alternativa al cloruro sódico -sal común- ya que quería reducir su consumo. Erróneamente, decidió consular con la inteligencia artificial -en este caso ChatGPT- y recibió como recomendación que la sustituyera con bromuro, un compuesto bastante peligroso que la FDA de Estados Unidos eliminó el uso de bromuro entre 1975 y 1989.
Confiando en la recomendación de la IA, el hombre compró bromuro de sodio a través de internet y lo añadió de forma habitual a sus comidas. Tras varias semanas siguiendo su nueva dieta, terminó en urgencias.
Según el análisis de este caso clínico anónimo publicado el 5 de agosto en Annals of Internal Medicine Clinical Cases, el hombre no tenía antecedentes psiquiátricos o médicos y llegó al departamento de emergencias expresando su preocupación de que su vecino lo estuviera envenenando. Sin embargo, tras la valoración del equipo de toxicología, fue diagnosticado con bromismo, una antigua intoxicación crónica derivada de la acumulación de bromuro en el organismo.
Durante las primeras 24 horas de su ingreso, el hombre experimentó síntomas como paranoia y alucinaciones auditivas y visuales. También tuvo lesiones cutáneas, incluyendo acné y pequeñas protuberancias rojizas. Intentó escapar y finalmente el equipo médico tuvo que realizar una retención psiquiátrica involuntaria por discapacidad grave y así poder abordar la intoxicación.
El bromuro era un popular compuesto tóxico a principios del siglo XX que se encontraba en muchos medicamentos de venta libre dirigidos a una amplia gama de indicaciones, como el insomnio, la histeria y la ansiedad. Sin embargo, generó alarmas luego de relacionarse con una gran cantidad de casos asociados con síntomas neuropsiquiátricos y dermatológicos, contribuyendo hasta el 8% de las admisiones psiquiátricas en ese momento, según informó Annals of Internal Medicine Clinical Cases.
No dejes tu salud en manos de la IA
Si bien la inteligencia artificial está ayudando a mejorar el sector de la salud a través de sistemas como diagnósticos predictivos con alta predicción, entre otros, está claro que un chatbot no es una buena opción para consultar temas de salud. Aunque en este caso el hombre fue dado de alta y en las revisiones posteriores se mantuvo en buen estado, las consecuencias pueden llegar a ser incluso peores.
Según los términos y condiciones de OpenAI. “No debe confiar en Output de nuestros Servicios como una única fuente de verdad o información objetiva, o como un sustituto del asesoramiento profesional”. Además, un portavoz de la compañía dijo a Live Science que los equipos de seguridad de la empresa tienen como objetivo reducir el riesgo de usar los servicios para estos fines y capacitar los productos para incitar a los usuarios a buscar asesoramiento profesional.
El Nacional