• Google ha retirado sus resúmenes de inteligencia artificial para algunas búsquedas médicas.
  • Expertos calificaron la información proporcionada como "alarmante" y "peligrosa".
  • Se reportaron casos de consejos erróneos sobre tratamientos para el cáncer de páncreas y pruebas hepáticas.

Google ha tomado la decisión de desactivar sus resúmenes de inteligencia artificial (IA) para ciertas consultas médicas, después de que una investigación revelara que la herramienta proporcionaba información engañosa y, en algunos casos, peligrosa. La medida surge tras las críticas de expertos que alertaron sobre los riesgos potenciales para los usuarios que confiaban en estos resúmenes para obtener información de salud.

Controversia por información médica errónea

Una investigación publicada por The Guardian expuso cómo los resúmenes de IA de Google ofrecían datos incorrectos en respuesta a preguntas médicas específicas. En un caso particularmente preocupante, se recomendó a pacientes con cáncer de páncreas evitar alimentos grasos, lo cual es contrario a las indicaciones médicas estándar y podría haber aumentado el riesgo de mortalidad. Otro ejemplo alarmante involucró la provisión de información falsa sobre pruebas de función hepática, llevando a personas con enfermedades hepáticas graves a creer erróneamente que gozaban de buena salud. Estos incidentes han generado una profunda preocupación en la comunidad médica y entre los usuarios.

Detalles de los casos reportados

Los expertos describieron los resultados como "realmente peligrosos" y "alarmantes". La información errónea sobre el cáncer de páncreas, que sugería evitar grasas, fue considerada un consejo directamente opuesto a lo que se debe recomendar. De manera similar, los datos falsos sobre pruebas hepáticas podrían haber llevado a diagnósticos erróneos y a un retraso en el tratamiento de enfermedades graves. La precisión en la información de salud es crucial, y estos fallos evidencian la necesidad de una supervisión rigurosa.

Respuesta de Google y medidas tomadas

A partir de esta mañana, los resúmenes de IA para preguntas como "¿cuál es el rango normal para los análisis de sangre del hígado?" han sido desactivados. Google declinó comentar específicamente sobre la retirada de estos resultados a The Guardian. Sin embargo, un portavoz de la compañía, Davis Thompson, declaró a The Verge que "invertimos significativamente en la calidad de los Resúmenes de IA, particularmente para temas como la salud, y la gran mayoría proporciona información precisa". Thompson añadió que el equipo interno de médicos de Google revisó la información compartida y determinó que, en muchos casos, la información no era inexacta y estaba respaldada por sitios web de alta calidad. Google se compromete a realizar mejoras amplias y a tomar medidas según sus políticas cuando sea apropiado.

Historial de controversias de la función IA

Esta no es la primera vez que los resúmenes de IA de Google se ven envueltos en controversias. La función ha sido objeto de críticas por proporcionar consejos absurdos o peligrosos, como sugerir a los usuarios que pongan pegamento en la pizza o que coman rocas. Estos incidentes han llevado a la compañía a enfrentar múltiples demandas y a revisar continuamente la fiabilidad de su tecnología de IA. La empresa busca equilibrar la innovación con la responsabilidad, especialmente en áreas sensibles como la salud. Además, la proliferación de la IA en la salud ya ha generado otras discusiones, como la que explora cómo Utah permite que la IA prescriba medicamentos sin supervisión humana. La necesidad de una regulación efectiva es clara, especialmente ante los riesgos que implica la burbuja de la IA y sus posibles consecuencias en la salud. La IA debe desarrollarse con especial cuidado, tal como se refleja en este caso. El uso de la IA en el ámbito médico requiere una reflexión continua y una evaluación constante de los riesgos.