Google убирает ИИ-резюме по медицине после жалоб на опасные ошибки
Почему искусственный интеллект Google снова под огнем
Фото: Baltphoto
Google удалил часть ИИ-резюме по медицине после критики. Эксперты обеспокоены качеством информации. Пользователи рисковали здоровьем из-за ошибок. Компания обещает доработать алгоритмы.
В 2026 году Google оказался в центре скандала, связанного с использованием искусственного интеллекта для создания кратких медицинских обзоров. После того как журналисты провели собственное расследование, выяснилось, что некоторые из этих ИИ-резюме содержали недостоверные и даже опасные сведения о результатах анализов крови на печеночные показатели. Это вызвало бурную реакцию среди специалистов и пользователей, которые доверяли поисковой системе свои вопросы о здоровье.
Компания Google позиционировала свои ИИ-обзоры как удобный инструмент для быстрого получения информации по самым разным темам, включая медицину. Однако на практике оказалось, что автоматические ответы не всегда учитывают индивидуальные особенности пациентов - такие как возраст, пол, этническая принадлежность или даже страну проживания. В результате пользователи могли получить ложное представление о своем состоянии, что особенно опасно при серьезных заболеваниях печени.
Один из наиболее тревожных случаев был связан с поисковым запросом о нормальных значениях печеночных проб. Вместо четких и понятных объяснений ИИ-резюме выдавало длинный список чисел без контекста, не делая различий между разными группами пациентов. Эксперты в области медицины назвали такую ситуацию «опасной» и «шокирующей», поскольку человек с тяжелым заболеванием мог ошибочно решить, что его анализы в порядке, и отказаться от необходимого лечения.
После того как проблема получила огласку, Google оперативно удалил ИИ-обзоры для ряда медицинских запросов, связанных с анализами печени. Представители компании заявили, что не комментируют отдельные случаи, но работают над улучшением алгоритмов и следят за соблюдением собственных правил. Тем не менее, специалисты отмечают, что проблема носит системный характер: если изменить формулировку запроса, ИИ-резюме снова появляется, и риск получить ошибочную информацию сохраняется.
Руководитель коммуникаций и политики одной из ведущих благотворительных организаций по вопросам здоровья печени отметила, что удаление обзоров - это шаг в правильном направлении, но он не решает главную проблему. По ее словам, результаты печеночных проб - это сложный комплекс данных, который нельзя свести к простому списку цифр. Более того, даже при нормальных показателях человек может страдать от серьезного заболевания, и ИИ-обзоры не предупреждают об этом риске. Такая ложная уверенность может привести к тяжелым последствиям для здоровья.
В ходе дальнейшей проверки выяснилось, что если пользователь вводит похожие запросы, например, «референсные значения ЛФТ» или «нормы ЛФТ», система снова предлагает ИИ-обзоры. Это вызывает опасения у специалистов, которые считают, что автоматические ответы не способны заменить консультацию с врачом и могут ввести в заблуждение даже опытных пациентов.
В Google признают, что продолжают анализировать новые примеры, поступающие от пользователей и экспертов. Однако представители медицинского сообщества подчеркивают: проблема не ограничивается отдельными случаями. Система ИИ-обзоров по-прежнему выдает спорные или ошибочные сведения по другим важным темам, включая онкологию и психическое здоровье. Некоторые из этих обзоров эксперты назвали «совершенно неверными» и «чрезвычайно опасными».
В компании утверждают, что их внутренние специалисты проверяют спорные материалы и в большинстве случаев находят информацию корректной, ссылаясь на авторитетные источники. Тем не менее, доверие к ИИ-резюме в вопросах здоровья продолжает снижаться. Многие пользователи и врачи считают, что Google должен не только удалять отдельные обзоры, но и полностью пересмотреть подход к предоставлению медицинской информации.
Ситуация с ИИ-обзорами Google наглядно показывает, насколько опасно полагаться на автоматические алгоритмы в вопросах, связанных с жизнью и здоровьем. Миллионы людей по всему миру ищут ответы на медицинские вопросы в интернете, и любая ошибка может стоить слишком дорого. В условиях, когда доступ к достоверной информации становится все более важным, ответственность технологических гигантов за качество своих сервисов только возрастает.
Пока Google обещает доработать свои алгоритмы и сделать ИИ-обзоры более точными, эксперты советуют пользователям не полагаться исключительно на автоматические ответы и обращаться за консультацией к профессионалам. Вопрос доверия к цифровым технологиям в медицине остается открытым, и этот случай лишь подчеркивает, насколько важно сохранять критическое мышление даже при работе с самыми современными инструментами.
Могут ли отношения с искусственным интеллектом стать лекарством от одиночества
Влияние общения с ИИ на психику вызывает споры. Новые исследования открывают неожиданные перспективы. Вопросы безопасности и пользы остаются открытыми. Эксперты ищут баланс между рисками и возможностями....
Ученые выявили два биологических типа рассеянного склероза с помощью ИИ
Новое исследование открывает неожиданные детали болезни. Ученые анализируют кровь и МРТ пациентов. Использование ИИ меняет подход к диагностике. Врачи ждут подтверждения результатов.... Рекомендовано Петербургом 2
Катки Петербурга: куда идти за атмосферой, а куда — за простором
Маршрут по новогодним фестивалям: куда идти за подарками и атмосферой в Петербурге
Афиша новогодних праздников в Петербурге: концерты, спектакли, шоу
Где кататься на санках и лепить снеговика в Петербурге
Керлинг, советские автоматы и карусели: топ новогодних мест в Петербурге
Куда пойти с ребенком на новогодних каникулах
Прогноз погоды
-12°..-10°













