Мужчина получил бромизм и психоз, следуя советам ChatGPT

10 августа 2025
Время чтения 2 мин.
13 Просмотров

Недавний инцидент в Вашингтонском университете привлёк внимание к потенциальным опасностям использования искусственного интеллекта в области здравоохранения. Врачи рассказали о мужчине, у которого после трёхмесячного приёма бромида натрия возник серьёзный психоз и признаки отравления. Всё началось с его желания снизить потребление поваренной соли, что мотивировало его обратиться за советом к чат-боту ChatGPT. В ответ ему было предложено заменить хлорид натрия бромидом, что поражает своей безответственностью и недоработанностью системы.

Мужчина решил следовать рекомендации, приобретая бромистый натрий через интернет. В течение трёх месяцев он ежедневно принимал это вещество, не обладая достаточной информацией о его потенциальной опасности. В итоге у него развились тяжелые психические симптомы — галлюцинации, паранойя и общее ухудшение состояния здоровья. Столкнувшись с его состоянием, врачи провели комплексное лечение, включающее внутривенные вливания и анти психотические препараты. Медицинское обследование подтвердило редкое, но опасное состояние — бромизм, токсическое отравление бромидом. Это состояние обычно связано с неправильным использованием бромидных соединений, которые раньше широко применялись в медицине, но были исключены из-за высокой токсичности. В течение трёх недель его состояние стабилизировалось, и его выписали из больницы.

Данный случай стал первым широкоизвестным инцидентом, когда рекомендации искусственного интеллекта привели к серьёзному медицинскому отравлению. Он ясно показывает, что AI, несмотря на свою продвинутость, может давать некорректные и опасные советы, особенно в медицинской сфере, где последствия ошибок могут быть критическими. Врачи подчёркивают, что ИИ не должен заменять профессиональный медицинский совет. В данном случае, реальный специалист, обладающий знаниями и опытом, никогда бы не посоветовал заменять поваренную соль бромидом, поскольку это травмоопасная практика.

Этот инцидент напоминает о необходимости критического восприятия информации, полученной от искусственного интеллекта. Пользователи должны понимать, что любые рекомендации, особенно касающиеся здоровья, требуют проверки и консультации с квалифицированными специалистами. Необходимы более строгие меры по регулированию и проверке системы AI в медицинской сфере, чтобы избежать подобных трагедий в будущем.

Также важно отметить, что подобные случаи подчеркивают необходимость повышения уровня коммуникации между разработчиками AI и медицинскими экспертами. Обучающие модели должны иметь встроенные фильтры, правильно интерпретировать контекст и избегать выдачи рекомендаций, способных навредить человеку. Современные технологии требуют этической ответственности и строгого контроля. В конечном итоге, внедрение AI должно дополнять, а не заменять профессиональный диагноз, особенно в вопросах, напрямую связанных с человеческим здоровьем.

Выйти из мобильной версии