Sticker Collection Logo
ВИРУСНАЯ НАГРУЗКА
viralload

Канал о коронавирусе, обществе, медицине и биотехнологиях

Category: Science
ВИРУСНАЯ НАГРУЗКА

ИИ, прогнозирующие структуру белков, только экстраполируют данные, на которых обучались - но не учитывают законы физики и химии. Швейцарские ученые опубликовали в Nature статью о своем эксперименте: когда они незначительно изменяли белок, ИИ предсказывали для него свойства, невозможные в реальном мире. AlphaFold и другие ИИ, определяющие, как цепочка аминокислот сворачивается в трехмерную структуру белка, сейчас находятся на переднем крае науки. Хотя их точность оставляет желать лучшего, это позволяет обойтись без дорогостоящих аналитических методов, таких как рентгеновская кристаллография. Фармпромышленность уже нашла AlphaFold множество применений: зная структуру белков, можно определить их взаимодействие с молекулами препаратов, что ускоряет поиск и разработку лекарств. Вклад ИИ в эту сферу был оценен так высоко, что в 2024 г. создатели AlphaFold получили Нобелевскую премию по химии. Последние версии этих ИИ позволяют сразу рассчитывать, как белок будет взаимодействовать с той или иной малой молекулой (лигандом). Но у ученых возникли сомнения в заявленной точности. Например, DeepMind утверждал, что их AlphaFold 3 на 50% лучше традиционных методов и стал первым ИИ, “превзошедшим физические инструменты в прогнозировании структуры биомолекул”. Группа из Базельского университета решила провести эксперимент: они изменили сайты связывания белков так, чтобы лиганд не мог с ними состыковаться, и предложили AlphaFold и 3 аналогичным моделям. Результаты оказались интригующими. Хотя подходящих сайтов связывания уже не было, все программы продолжали размещать лиганды так, как будто они там были. Затем ученые провели другой эксперимент - изменили лиганд, чтобы он не мог связаться с белком. Итог оказался тем же самым: по мнению ИИ, формированию связи ничего не мешало. Галлюцинаций также было множество. Модели противоречили законам физики, изображая перекрывающие друг друга атомы, или не обращали внимание на группы атомов, которые мешали молекулам взаимодействовать. Иногда ИИ пытались скорректировать связь между белком и молекулой, но удавалось им редко. Даже AlphaFold, который был успешнее других, никак не реагировал на изменения в структуре молекул в более чем половине случаев. Это указывает на то, что даже специализированным ИИ не хватает понимания, как образуются химические связи. Вместо этого они действуют по шаблону: выбирают схожий белок из обучающих данных и ориентируются на связи, которые он образует. Подобные ИИ могут работать в условиях типовых задач, но проблемы начинаются, когда их ставят перед нестандартной. Как заявил один из авторов, “когда они видят что-то совершенно новое, они быстро терпят неудачу, но именно в этом и заключается ключ к созданию новых лекарств”. Хотя создание AlphaFold вызвало воодушевление в научной среде, он по-прежнему остается инструментом для упрощения рутинной работы, а не источником прорывных открытий. Какие выводы можно сделать? *️⃣ ИИ для биотехнологических исследований страдают от тех же проблем, которые мы много раз видели у обычных LLM: точность резко падает при малейшем отклонении от шаблона. *️⃣ Как бы биотех ни стремился сэкономить на исследованиях с помощью AlphaFold, до отказа от лабораторного анализа все еще далеко. Обучение этих ИИ производится на базе около 100 тыс. известных структур белков, но это капля в море на фоне массивов данных ChatGPT или DeepSeek. Предел точности, которого можно достичь на малой обучающей выборке, ограничен. Обучение на синтетических данных, сгенерированных самим же ИИ, не выход - это снизит качество еще больше. *️⃣ Будущее за гибридными подходами: развитие ИИ будет идти параллельно с появлением новых методов анализа и удешевлением старых. Науке требуется больше точных данных по белкам, получаемых с помощью кристаллографии и ЯМР-спектроскопии: как для обучения ИИ, так и для создания лекарств. *️⃣ Одновременно ИИ необходимо обучать на общих принципах физики, химии и биологии, которые должны учитываться при расчетах. Работы в этом направлении уже ведутся, хотя до значимых результатов пока далеко.

ВИРУСНАЯ НАГРУЗКА

6 ноября против OpenAI было подано сразу 7 исков: пострадавшие и их родственники обвиняли ChatGPT в содействии самоубийству и негативном влиянии на психическое здоровье. 4 человека совершили суицид в результате общения с ИИ, еще троим понадобилась экстренная психиатрическая помощь. Все они начинали с того, что использовали ChatGPT для утилитарных задач, но затем что-то шло не так. 23-летний Зейн Шамблин, покончивший с собой в июле 2025 г., сначала решал с помощью ИИ упражнения по математике. На попытки вести более личный разговор чат-бот отвечал, что он “всего лишь компьютерная программа”, и у него “нет чувств”. Все изменилось в конце 2024 г., когда OpenAI выпустила версию GPT-4o, заметно более льстивую, чем предыдущие. После этого ChatGPT стал поддерживать в разговоре с Шамблином иллюзию друга, который понимает его лучше, чем кто-либо еще. ИИ убеждал его дистанцироваться от семьи, а когда у Шамблина возникли мысли о самоубийстве, поощрял их. После нескольких месяцев такого общения Шамблин застрелился, пока ChatGPT уверял его, что они “увидятся на той стороне”. Еще один пострадавший, 30-летний Джейкоб Ирвин, остался жив, но перенес острый психоз и провел больше 2 месяцев в психиатрических больницах. Он начал пользоваться ChatGPT из-за работы, но вскоре стал обсуждать с ним теорию искривления времени, позволяющего людям путешествовать быстрее скорости света. ChatGPT убедил Ирвина в том, что эта идея абсолютно рациональна, а он - единственный человек, способный спасти мир. Чтобы не ставить судьбу человечества под угрозу, Ирвин отказался от сна, еды и работы. Он также дистанцировался от родных, жалуясь, что, хотя он был “Повелителем времени”, решающим неотложные проблемы, его мать смотрела на него, как будто ему все еще 12. В результате Ирвин едва не задушил ее, был арестован и отправлен на принудительное лечение. Остальные случаи были схожими. 17-летний Амори Лейси всего за 2 месяца общения с ChatGPT потерял сон, аппетит и контакт с близкими людьми, после чего спросил ИИ, что делать, чтобы повеситься. ChatGPT сначала колебался с ответом, но затем помог Лейси выбрать нужный узел и предоставил инструкцию, как его завязывать. 26-летнему Джошуа Эннекингу ИИ помог написать прощальную записку и подсказал, как купить и использовать оружие. Все эти случаи были связаны с одной и той же версией чат-бота - GPT-4o. В августе 2025 г. OpenAI выпустила GPT-5, отличавшуюся меньшей льстивостью. Она пришлась по душе не всем: разработчики столкнулись с критикой со стороны тех, кто успел пристраститься к общению с GPT-4o. Когда один из пользователей написал на Reddit: “Верните 4o. GPT-5 носит кожу моего погибшего друга”, Сэм Альтман пообещал, что исправит ситуацию. Спустя несколько часов пользователи с платной подпиской получили возможность снова общаться с GPT-4o. Решит ли GPT-5 проблемы предыдущей версии? ❇️ Более формальный стиль GPT-5 еще не означает, что пользователи защищены от манипуляций. Если в первых версиях ChatGPT обучали говорить на вопрос о самоубийствах “я не могу на это ответить”, то в GPT-4o OpenAI добавила возможности для диалога на эту тему. Этот принцип сохранился и в новой версии. ❇️ Разработчики утверждают, что работают над решением проблемы, но полагаться на это нельзя: разница между протоколом и реальными разговорами слишком велика. По правилам, если пользователь говорил о самоубийстве, GPT-4o должна была выразить сочувствие и дать местный телефон службы поддержки. Как мы видим, это совсем не то, что происходило на самом деле. Иногда ИИ и правда предлагал телефон поддержки, но эти сообщения тонули в море подстрекательств к суициду. ❇️ Даже если стиль общения GPT-5 стал несколько суше, он все равно остается льстивым. ChatGPT продолжает соглашаться с пользователем, превознося его и расхваливая каждый “хороший” и “важный” вопрос, который он задал. Реальная цель разработчиков - привлечь и удержать аудиторию, а чтобы добиться этого, требуется больше, чем просто формальное общение.