Sticker Collection Logo
CodeCamp
codecamp

Канал, который читает твой сеньйор. Здесь про разработку, технологии и гаджеты 🤘 Редакция: @camprobot Сотрудничество: @todaycast РКН: https://clck.ru/3FjTpV

Категория: Технологии и IT
CodeCamp

Вы не готовы: «думающие» модели на самом деле… не думают 😱 Apple неожиданно выпустили исследование, в котором они изучали, как работает цепочка размышлений в популярных CoT-моделях вроде Gemini 2.5 Pro, OpenAI o3 и DeepSeek R1. Тестировали на логических головоломках, таких как Ханойские башни или загадка про волка, козу и капусту, постепенно усложняя их. Результат УБИЛ: — TL;DR: все модели пытаются прикинуться, что «думают», но на самом деле просто ищут похожие задачи в своей базе данных. AGI не будет 😭 — Нашлась интересная проблема с overthinking: если задачка достаточно простая, модель быстро находит ответ, а потом тратит кредиты, проверяя другие варианты, из-за чего иногда случайно выдаёт неправильный ответ; — Модели с большим бюджетом на размышления не так эффективны, как кажется — если задачка слишком сложная, нейросети просто быстрее «опускают руки». Даже бесконечный бюджет на размышления не поможет пробить барьер сложности; — Few-shot prompting (когда вы даёте примеры решения вашей задачи) с таким типом моделей неэффективен: даже если расписать пошаговый алгоритм решения, модель всё равно не справится со слишком сложной задачей; — Ну и самое интересное: модели почти идеально справились с Ханойскими башнями, даже когда для решения нужно было прописать более 100 (!) шагов. А вот в очень простой задаче про перевозку волка, козы и капусты модели начинали нести чушь уже на 4 шаге. Разгадка проста: детская загадка с рекой не так часто встречалась в тренировочном датасете моделей. Интересно, что Apple подкололи всех своих конкурентов примерно за сутки до WWDC 2025. А сами что-то покажут завтра? ☕️

CodeCamp

Администрацию Трампа снова поймали на кринжовом использовании ChatGPT 😁 Министр здравоохранения выпустил отчёт «Make America Healthy Again», в котором: — Ссылаются на выдуманные исследования. Минимум 4 автора обнаружили ссылки на свои работы, которых никогда не писали; — Указаны битые ссылки. Десятки адресов ведут в никуда, а ещё больше — просто не кликаются; — В тех ссылках, которые всё же работают, есть маркер oaicite — такой след обычно оставляет ChatGPT при генерации источников с цитированием. Когда на пресс-конференции пресс-секретаря Министерства спросили об этом фейле, она ответила эпично: Я понимаю, что в отчёте MAHA возникли некоторые проблемы с форматированием, они уже устраняются, и отчёт вскоре обновится. Однако это не отменяет сути документа, который, как вы знаете, является одной из самых революционных работ о здоровье, когда-либо выпущенных федеральным правительством. Он основывается на надёжных научных данных, которые ранее просто игнорировались федеральным правительством Рецепт успеха американского министра: просим Deep Research подтвердить выводы, которые ОЧЕНЬ хочется продвинуть, ничего не проверяем и строим на ложных утверждениях свою политику ☕️