text
stringlengths 102
4.09k
|
|---|
Взгляд в будущее с Claude Sonnet 4.5
На фоне хайпа с Sora 2 потерялся любопытный релиз Claude Sonnet 4.5,. Не буду повторять новостные тексты, а вместо этого выделю три важных момента.
Во-первых, скорость. Буквально 5 августа Anthropic выпустили Claude Opus 4.1, а теперь у нас уже Sonnet 4.5. И несмотря на то, что в линейке “Клодов” Sonnet стоит ниже Opus, новинка оказалась лучше почти во всех бенчмарках.
Получается, что цикл появления нового в ИИ сократился до 2-3 месяцев. Для сравнения, компьютерное железо обновляется раз в 1-2 года, операционные системы и крупный софт — раз в 1-3 года. Это невероятно круто, но и сложно одновременно: даже быстрым и гибким специалистам непросто каждые два месяца пересматривать, что можно делегировать ИИ, а что пока оставить себе.
Во-вторых, Anthropic похвалились, что в их тестах Sonnet 4.5 непрерывно программировал 30 часов, создав чат-приложение типа Slack. Предыдущий рекорд заявлялся для Claude Opus 4.0 и GPT-5-Codex — оба смогли программировать до 7 часов без вмешательства человека.
Понятно, что для таких заявлений берутся лучшие примеры, в большинстве же задач ИИ будут требовать помощи человека раньше. Но вчерашние рекорды уже завтра станут обыденностью. И не только в кодинге: как много раз случалось, сначала ИИ показывают какой-то новый навык в программировании — а после он масштабируется на другие сферы. Так что универсальные агенты, способные часами работать над разными задачами, от креативов до составления бизнес-планов, уже не за горами.
Наконец, в-третьих, выделю Imagine with Claude — экспериментальную функцию на базе Sonnet 4.5, которую на несколько дней открыли для подписчиков Max. Запускается в браузере, похожа рабочий стол, где ИИ на лету создает для вас любые приложения. Калькулятор калорий четко под диету, какой-нибудь хитрый дашборд, просто календарь, где кнопки будут располагаться там, где хочется именно вам — воображение ограничено только возможностями ИИ.
Imagine with Claude иногда называют прототипом операционной системы: это сразу и ошибка и правда. Ошибка в том, что новинка работает в браузере — соответственно, для запуска все еще нужна Windows, MacOS, Linux или мобильная операционка, выполняющая роль посредника между пользователем и железом.
Правда же в том, что Imagine with Claude также является “посредником” — только между пользователем и кусочком серверных мощностей, его обслуживающих. И когда-то в будущем именно так будет выглядеть наше взаимодействие с компьютерами и смартфонами. Классические операционки с программами исчезнут, а их место займет ИИ-интерфейс, создающий любой пользовательский опыт прямо по запросу.
И это будут вещи в разы сложнее, чем “блокнот” с перерисованным интерфейсом. Представьте, что вы делаете для команды презентацию новой фичи в проекте - онлайн, причем каждый просматривает ее через собственную “ИИ-операционку”. Основные данные у всех одинаковые, но одновременно у коллег презентация будет дополняться информацией, специфичной для них. Финансисты смогут на лету оценить доходы и расходы, продуктовая команда — прикинуть, когда идею можно будет взять в работу и за какое время выполнить, юристы увидят потенциальные риски и так далее. А в конце все дружно загрузят своих ИИ-агентов задачами по 30 часов — и разойдутся довольными.
Конечно, все это — фантазия не на ближайшее время. Современные ИИ далеки от такого уровня взаимодействия, плюс надо будет проработать совершенно другие стандарты совместной работы и вопросы безопасности, плюс “бутылочным горлышком” наверняка окажется железо — ведь такие модели будут работать постоянно, а не как сейчас, когда они отвечают за короткое время
.
Не исключено, что когда эти вопросы будут решены, достоянием истории станут понятия “проект”, “фича” и многие другие — а на их место придет совершенно иной подход к работе. С другой стороны — буквально два года назад многие и представить не могли, что ИИ будет писать даже простенькие программы. Так что скорость прогресса куда выше, чем кажется.
|
Завершаем неделю невероятно красивой симуляцией Солнечной системы от Gemini 3.0 Pro (ну, вероятно)
Понравилось? А теперь давайте подводить итоги недели, которая ну очень насыщена на новости. Про Gemini 3.0 Pro тоже будет, но в конце.
Напомню, что про крупные анонсы я уже писал отдельно: читаем про Claude Sonnet 4.5, и про Sora 2. Теперь же давайте пройдемся по новостям поменьше, но все равно важным.
Sora 2 Pro
Да-да, через пару дней после “обычной” Sora 2 к ней добавилась Pro-версия: у нее выше разрешение, а ролики длятся 15 секунд вместо 10. Последнее круто: мне на многих промптах не хватает буквально 1-2 секунд, чтобы завершить идею. Но все-таки не та фишка, чтобы переходить с 20-долларовой подписки Plus на Pro за 200 долларов.
ChatGPT Pulse
Еще одна фишка, которая пока есть только в подписке Pro и которая также не оправдывает перехода. Но идея интересная: каждую ночь ChatGPT анализирует последние чаты, смотрит, чем может быть полезен — а утром выдает что-то вроде умной ленты с идеями на день. Планировали путешествие? Вот еще пять похожих мест, куда можно поехать. Идете на тренировку сегодня? Вот упражнения, которые можно попробовать.
Pulse интересен тем, что это один из первых примеров, когда ИИ не ждет запроса, а сам приходит с новыми идеями — пусть и в определенное время. Так что ждем его в подписке Plus: в OpenAI заверили, что скоро добавят.
Обновленная Google Nano Banana
Google вывела свою крутую рисовалку из preview-статуса в general availability — то есть модель протестирована и при использовании проблем не будет. По пути добавили такую штуку, как выбор соотношения сторон: горизонтальная, портрет, квадрат — всего 10 вариантов. Вроде и мелочь, но когда это просишь сделать в текстовом промпте — модель часто игнорирует.
Обновленная nano banana точно доступна в Google AI Studio (напоминаю, там бесплатно) и Vertex AI. А вот с Gemini App для платных подписчиков традиционно ничего не ясно: если в AI Studio уже вижу меню выбора соотношения сторон, то в Gemini App нет ничего подобного. Обидно, что коммерческое приложение опять позади.
Perplexity Comet
После почти трех месяцев тестирования нашумевший браузер наконец-то вышел. С ИИ в нем можно общаться прямо в поисковой строке, а когда находитесь на какой-то веб-странице — то в небольшой панели справа. Вариантов применения много: написать саммари, пояснить что-то сложное, наполнить корзину покупками из списка и т. д.
Браузер уже доступен для Windows и MacOS, а мобильные версии обещали в “ближайшие недели”. Пользоваться можно бесплатно, но подписчики Pro получают больше функций — например, дополнительные источники новостей и сортировку электронной почты.
Так, с новостями закончили, теперь к прогнозам.
OpenAI DevDay
Мероприятие для разработчиков пройдет в понедельник: несмотря на то, что OpenAI уже сделала несколько больших анонсов, один из менеджеров компании написал, что на DevDay “вас ждет то, что заслуживает ожидания”.
Что именно? Вот гипотезы: обновленный ChatGPT Agent (уже были утечки), обновленная GPT-5 и финальная версия экспериментальной модели OpenAI, которая в последние месяцы взяла золото на нескольких сложных олимпиадах. Осталось совсем немного времени — увидим!
Потенциальная Gemini 3.0 Pro
И детективная история в конце. Некоторое время назад народ из X заметил, что в AI Studio при работе с Gemini 2.5 Pro иногда появляется тестирование двух разных ответов ИИ, причем сами ответы не похожи на стиль 2.5 Pro. Начали подлавливать на сложных промптах — и выяснилось, что новинка отвечает круче, особенно в кодинге. Отсюда и вывод, что это может быть Gemini 3.0 Pro.
Интересно, что когда X-пользователь Chetaslua опубликовал свои находки, то в личку к нему пришел Логан Килпатрик, глава Google AI Studio и… вместо того, чтобы потребовать все удалить, попросил поделиться промптом визуализации Солнечной системы — мол, красиво. Считаем за косвенное подтверждение Gemini 3.0 Pro. По срокам выхода пока ничего не ясно: кто-то говорит о 9 октября, кто-то — о начале ноября.
|
И к новостям робототехники: Tesla опубликовала короткое видео, где Optimus V3 показывает кун-фу
(тут надо дежурно пошутить про то, как роботы порабощают человеков, но мне лень)
Начнем с того, чем впечатляет видео. Во-первых, плавность и координация движений, особенно в верхних конечностях. Руки — куда более сложная задача в робототехнике, поэтому даже такой уровень движений, без мелкой моторики, является высшим пилотажем. Во-вторых, достойная координация движений с живым партнером, даже учитывая, что видео — демонстрационная постановка.
Наконец, в-третьих, Tesla утверждает, что Оптимусы разучивают новые движения в виртуальной симуляции, предварительно посмотрев тысячи часов видеозаписей реальных движений. Это более продвинутая технология, чем повторение за людьми в костюмах захвата движений — хотя бы потому, что видеоматериала на порядок больше, а значит куда больше мелких нюансов. Кстати, подобным образом Optimus разучил танец для опубликованного весной ролика.
Но и кун-фу, и танцы — пока лишь впечатляющие демо возможностей. Следующим шагом будет большее количество демонстраций Оптимуса в рабочих ситуациях, вроде доставки деталей на конвейер или сортировки коробок на складе. Человек такие операции делает автоматически, для робота же это — пока сложная задача.
Почему так? ИИ для управления роботом — это агентская система, поставленная в экстремальные условия. Сейчас тот же ChatGPT Agent способен лишь на не очень сложные задачи в интернете. При этом он работает на мощнейших серверах и может позволить выполнять задачу 20-30 минут, переделывая те шаги, где совершил ошибку. И все равно — результат во многих случаях далек от идеала.
Вернемся к роботам. Даже выполнение такой элементарной заводской задачи, как переноска деталей с тележки на конвейер — это совсем другой уровень нагрузки на ИИ. Детали могут лежать немного по-разному или быть перепутаны вовсе, конвейер может остановиться, на маршруте может оказаться препятствие — и на все это нужно реагировать в реальном времени.
При этом ИИ робота крутится на очень экономичном процессоре, который параллельно управляет огромным количеством систем на “теле” — моторчиками, датчиками, модулями диагностики и так далее. Да, для определенных задач можно подключиться к центральному серверу или даже запросить ручное управление оператором — но это ведет к задержкам и снижению результативности.
Отдельная большая задача — моторика робота. Сейчас неплохо научились делать ноги, а вот с руками еще предстоит большая работа. Универсальный робот должен манипулировать с предметами разных форм и размеров, гнуть прочные материалы и переносить хрупкие, складывать ткани, уметь вставить вилку в розетку, “нащупав” пазы, и так далее.
Optimus — далеко не самый передовой робот, хотя с ним Tesla стремительно приближается к высшей лиге. Но даже лидерам еще далеко до широкого применения. Те же Atlas от Boston Dynamics показывают автономные операции на макете заводского участка. Роботы Figure ограничено тестировались на заводе BMW, а разработки GXO × Agility Digit понемногу таскают коробки на складах SPANX.
Все это — пробные прогоны, обычно менее эффективные и более дорогие, чем найм живых сотрудников. Ожидается, что полноценные многочасовые смены роботы смогут брать на себя в ближайшие 12 месяцев, к 2027 году на некоторых заводах будут участки с сотнями таких трудяг, а к 2030-му мы дойдем до универсальных сценариев, когда один робот сможет закрывать несколько совершенно разных задач.
И примерно в это же время начнется очень аккуратное внедрение роботов в бытовые операции? Почему? Потому что непредсказуемость домашней и уличной среды на порядок выше, чем на заводе, да и техники безопасности уровня промышленных объектов здесь нет. Поэтому любая мелкая ошибка может привести к очень серьезным последствиям.
Так что порабощение мира пока откладывается — для начала предстоит научиться сортировать коробки.
|
Главные новинки OpenAI DevDay
На конференции DevDay в OpenAI решили не анонсировать новые модели (что немного жаль), а сосредоточиться на том, как мы взаимодействуем с текущими. Выделю два наиболее интересных анонса: приложения в ChatGPT и конструктор агентов AgentKit.
Apps SDK позволит любому разработчику создать версии своих приложений для максимально бесшовного использования в ChatGPT. Например, я часто прошу нейронку посоветовать мне новую музыку — алгоритмы Spotify у меня давно зациклились на одних исполнителях, а GPT-5 находит новых с помощью элементарных промптов в духе “собери что-то в этом же стиле, но от набирающих популярность новичков”.
Но неудобно то, что рекомендованную музыку в Spotify приходится переносить руками. С приложением это намного проще — модель сама создаст плейлист, добавив в него, например, по несколько треков от каждого рекомендованного исполнителя.
Другой интересный пример — Coursera. Курсы из нее можно просматривать прямо в ChatGPT: со всеми изображениями, видео и другим интерактивом. И так как это происходит в чате, то по курсу можно сразу же задавать вопросы GPT-5.
Понятно, что такие штуки можно делать и просто открыв ChatGPT в соседней вкладке браузера. Но, во-первых, это лишь самые простые примеры интеграции — чем больше разработчиков начнут пробовать Apps SDK, тем больше интересных вариантов использования появится.
Во-вторых, прямо на наших глазах продолжается процесс превращения ИИ из чат-ботов в подобие если не операционных систем (взаимодействие с железом все-таки остается на стороне Windows/MacOS/iOS/Android), то оболочек для работы с разными приложениями.
Один из примеров — браузер Comet от Perplexity, где ИИ может выполнять действия на каждой открытой веб-странице или просто давать короткие консультации. Подход OpenAI противоположен — вместо создания ИИ-надстройки над интернетом, они пытаются затянуть приложения “внутрь” своей экосистемы (кстати, монетизация планируется). Наконец, есть и совсем экспериментальные штуки вроде Imagine with Claude — это, скорее, взгляд на несколько лет вперед.
Сложно сказать, какой подход победит, но в одном я уверен точно: мы все реже будем управлять компьютерами и смартфонами через привычные интерфейсы, и все чаще - через прямое взаимодействие с ИИ.
Второй анонс, AgentKit — инструмент для ИИ-автоматизации. Работать с чат-ботом удобно: можно дать любой запрос — и тут же получить ответ. Но часто нужно прописать ИИ четкий сценарий работы — и вот тут на помощь приходят конструкторы агентов, вроде знаменитого n8n, а теперь и официального решения от OpenAI.
Это невероятно удобная штука для небольших бизнесов и ИИ-энтузиастов. Например, можно создать чат-бота для сайта, который будет отвечать на вопросы пользователей, отталкиваясь от информации в предоставленных ему базах данных (например, о продвигаемых товарах или услугах). Этого же агента можно настроить через определенные промежутки времени отдавать владельцу сайта статистику: сколько было обращений, есть ли популярные темы, на какие не удалось ответить (а значит — надо пополнить базу знаний). Если вдруг количество обращений резко растет — можно быстро сигнализировать по “тревожному каналу”.
Плюс AgentKit в том, что он не требует вообще никаких профессиональных навыков: надо лишь понимать свою задачу, уметь писать простые промпты, обладать логическим мышлением и терпением. Все этапы работы агента прописываются визуально, можно добавлять ветвления, когда дальнейшие действия агента меняются в зависимости от ситуации. На DevDay агента собрали за 8 минут: разумеется, без опыта времени уйдет больше — но это все равно будут часы, а не дни или недели.
Сейчас на рынке уже есть крутые конкуренты вроде n8n или того же Zapier, но OpenAI может побороться с ними за счет того, что использует собственные модели и может подгонять их под задачи максимально точно и быстро. Посмотрим, получится ли.
Пока по новостной повестке все. Следующий этап уже 9 октября — Gemini at Work, на которой ждем новинок Google.
|
А держите большой обзор Google Gemini
Новая Gemini 3.0 Pro не за горами: народ “ловит” ее в Google AI Studio и как минимум результаты в создании сложных SVG лучше, чем у нынешних ИИ (см. видео). Возможная дата выхода — 9 октября, когда пройдет мероприятие Gemini at Work. Но могут и задержать.
В любом случае, выход не за горами, так что самое время рассказать, чем вообще хорош и плох этот сервис.
Начнем с того, что ИИ от Google можно опробовать сразу на нескольких площадках. Совсем бесплатно на Google AI Studio — экспериментальной площадке, где многие ИИ-функции обкатываются в первую очередь. Кроме того, здесь больше тонких настроек моделей. Звучит классно, но ваши диалоги в AI Studio могут использовать для обучения моделей, а лимиты использования меняют без предупреждения — были случаи, когда доступ к 2.5 Pro резко резали в моменты перегрузки серверов.
Поэтому смотрим в сторону Google Gemini App. Бесплатная версия дает щедрый доступ к простой модели Gemini 2.5 Flash, рисовалке Nano Banana и 100 ИИ-кредитам, которые можно потратить в видеоредакторе Flow и приложении для графики и видео Whisk (в том числе и на Veo 3). Gemini 2.5 Pro в бесплатной версии есть, но с лимитом в несколько запросов в сутки.
Нормально с 2.5 Pro можно работать на 20-долларовой подписке. Модели уже полгода, но за это время было несколько доработок, поэтому она до сих пор не плоха (плюс скоро все равно 3.0 Pro). Мне нравится, как 2.5 Pro пишет на русском — четкая структура, минимум “заумных” терминов и корявых оборотов. Здесь публиковал метафикциональный рассказ про ИИ и горе — 2.5 Pro до сих пор одна из немногих моделей, которые справляются с этим промптом.
Еще одна уникальная особенность 2.5 Pro/Flash в подписке — контекстное окно в 1 миллион токенов, а это значит, что в диалог с запасом влезет “Война и мир”. Для сравнения, у той же GPT-5-Thinking около 200 тысяч.
Кодит 2.5 Pro уже хуже, чем GPT-5-Thinking и Claude Sonnet 4.5, плюс модель не умеет делать многократный вызов инструментов. Та же GPT-5, получив сложный запрос, может выполнить поиск, понять, каких данных ей не хватает, выполнить еще один поиск и т. д. Глава Google AI Studio Логан Килпатрик уже подтвердил, что в 3.0 Pro многократный вызов инструментов будет.
Также у 20-долларовой подписки Gemini AI, пожалуй, один из лучших value на рынке. Кроме доступа к Gemini 2.5, nano banana и Veo-3-Turbo (три генерации видео в день + не забывайте про 1000 кредитов, которые можно потратить на ту же Veo 3 в редакторе Flow), дают 2ТБ облачного хранилища и мелкие функции в Gmail и Google Docs. А еще подпиской можно поделиться на 5 человек из семейной группы — причем у каждого будет свой план.
Теперь к нюансам. Во-первых, у Gemini очень посредственные веб-версия и оба мобильных приложения — уже без багов, но по функционалу далеко до ChatGPT.
Во-вторых, доступ из России. Вообще в РФ ни один ИИ не заблокирован — но многие компании-разработчики сами ограничивают доступ. Причем у Google это получается особенно эффективно. Если у вас Android, то поможет приложение Geminify, которое лежит в RuStore в версии для Samsung, а для других производителей качается с просторов интернета. Для других ОС также можно найти действующие способы.
В-третьих, покупка. Если у вас есть карта банка за пределами РФ, то, полагаю, и сами все знаете. Если брать у перекупщиков, то два варианта. “Честная” подписка будет стоить 20+ долларов в месяц, вам или создадут новый аккаунт, или пополнят текущий, но придется передать доступ (используйте не основной аккаунт). Плюс дешевые варианты сразу на год — это “студенческие” аккаунты, Google регистрирует их бесплатно, чем пользуются любители подзаработать. Пока у людей вроде работает, но без гарантий, что когда-то не начнут блокировать.
Это все грустно, но посоветую простое правило, которому следую и сам: при покупке подписок обходными путями тратьте на них только ту сумму денег, которую не жалко потерять.
|
Галлюцинируют ли ИИ об электроовцах?
Давно уже заметил, что если кто-то критикует ИИ, то он обязательно пройдется по галлюцинациям. И пусть последние модели ошибаются реже, истории, как нейронка перепутала президента США, будут живы и во времена GPT-8.
Но почему ИИ галлюцинируют? Как с этим бороться? И может ли слишком усердная борьба с галлюцинациями, наоборот, ухудшить характеристики будущих моделей? Давайте разбираться.
Сначала на минутку включу режим зануды и напомню базовую вещь — в отличие от людей, современные ИИ не “думают” в реальном времени. Если грубо, то они проходят долгое обучение на заранее выбранном корпусе данных, а в конце знания замораживаются. Есть параметр knowledge cuttof — дата до которой у ИИ есть знания. Современные модели научились искать недостающую информацию в интернете, но это не всегда решает проблему — все-таки отбор данных в корпус для обучения более тщательный.
Второй этап — пост-обучение. Модели раз за разом задают разные вопросы, и поощряют в тех случаях, когда ответ хороший. На этом этапе ИИ обретает одну из своих главных черт — быть гиперполезным для пользователя и стремиться ответить на вопросы (ведь за это дают “конфетку”!).
Не всегда эта особенность работает как надо. Недавно специалисты OpenAI опубликовали интересное исследование — оказывается, именно несовершенство подходов к пост-тренировке поощряет галлюцинации модели. Сейчас за правильный ответ полагается награда, за ошибочный — ничего. И когда ИИ не знает ответ, ему выгоднее попробовать угадать его — даже если это получится в одном случае из ста, то, итоговый счет будет выше (ведь в пост-тренировке задают огромное количество вопросов).
В OpenAI рекомендуют поменять подход к пост-обучению, начав наказывать ИИ за угадывания и поощрять случаи, когда она признает, что не знает ответ. Сама компания при разработке GPT-5 использовала специальный ИИ-модуль, который проверял каждый ответ и отмечал ошибочные.
Результат заметен — GPT-5 в режиме Thinking в моих задачах галлюцинирует реже, чем предыдущая o3 (та была знатным фантазером!). Класс, но в этом есть и опасность: модели больше доверяешь, ленишься проверить ее — и галлюцинация иногда проскакивает.
Но всегда ли галлюцинации вредны? Сегодня я посмотрел интервью команды Epoch AI с Кеном Оно, теоретиком чисел в Университете Вирджинии. Он обсуждал современные ИИ и их использование в науке, и высказал интересную мысль — когда математик совершает открытие, он тоже начинает с “галлюцинаций”. Нельзя придумать что-то новое, не выходя за границы текущих знаний.
И если мы хотим, чтобы ИИ стали помощниками в будущих исследованиях, то галлюцинации надо не искоренять, а учиться использовать во благо. Кен рассказывает, что в науке гипотеза проходит сложную и многоэтапную проверку — чтобы реально отделить новую идею от просто правдоподобной писанины.
Похожие технологии уже начинают использоваться в передовых моделях. GPT-5-Pro состоит из двух работающих параллельно GPT-5-Thinking: они предлагают разные варианты решения, из которых затем специальный модуль собирает финальный. В Gemini 2.5 Deep Think, по слухам, трудятся целых четыре модели, не менее сложная схема использована в экспериментальной модели OpenAI, которая взяла золото на нескольких международных олимпиадах (разбирал в конце этого поста).
И это, похоже, работает. Я видел уже несколько новостей, что GPT-5-Pro помогает открывать новую математику — где-то полностью сама, а где-то работая помощником опытного ученого (в одном из случаев — у Теренса Тао, легенды современной математики). Пока это совсем крошечные шажки вперед (в математике огромное количество задач, которые требуют уровня хорошего аспиранта) — но буквально полгода назад и они выглядели фантастикой.
Для массовых же моделей совет пока простой — если волнует качество ответа, то просто просите ИИ проверить за самим собой, это помогает в 80% случаев. Ну и не забывайте сами проверить.
|
Учимся писать промпты для Sora 2
OpenAI выпустили классное руководство по промптингу Sora 2, а я подготовил выжимку самого полезного. О том, как попасть в “Сору”, писал здесь, в этом же посте делился и впечатлениями — правда, с тех пор сильно ужесточили контроль за авторским правами, поэтому ремейки “Южного парка” сделать больше не выйдет.
Но хватит грустить, начнем с максимального варианта промпта, который советуют в OpenAI.
[Описываем сцену простым языком: персонажей, костюмы, окружение, погоду и другие детали. Добавляйте столько подробностей, чтобы получить видео, максимально соответствующее замыслу.]
Камера: [варианты будут дальше]
Линза: [24–28 мм (широкоугольная) / 35 мм (естественная перспектива) / 50 мм (нейтрально-портретная) / 85 мм (портретная, сильнее размывает фон) / 135 мм+ (дальняя, сжатие планов)]
Свет: [ключевой (основной) / заполняющий / контровой (обводящий) / практический источник (лампа/вывеска в кадре) / свет из окна (дневной) / неон (бирюза/пурпур) / «золотой час» (контровой закат + лёгкая дымка) / рассеянный пасмурный]
Настроение: [общий тон, например: кинематографично и напряженно; игриво и с налетом саспенса]
Действия:
— [первое важное событие/реплика в видео]
— [второе важное событие/реплика в видео]
— [количество действий не ограничено, но учитывайте 10-секундную длительность видео]
Диалоги:
[Если в ролике есть реплики, добавьте их сюда или в раздел «Действия». Опять же, не забывайте про 10-секундную длительность.]
Вот отдельные варианты для камеры, собираем из каждого пункта:
План: суперобщий (экстремально общий) / общий / средний / американский (по колено) / погрудный / крупный / деталь (экстремальный крупный)
Ракурс: на уровне глаз / нижний / верхний / три четверти / профиль / фронтально / план через плечо (OTS) / POV (точка зрения героя)
Движение: статично / наезд / отъезд / горизонтальная панорама / вертикальная панорама / трэвеллинг (следование) / облет по дуге / стедикам / кран / джиб / дрон / таймлапс / замедление
Фокус/приемы: перевод фокуса (rack focus) / ГРИП: мелкая / средняя / глубокая / сплит-диоптр / «рыбий глаз»
Вообще в OpenAI делают отдельный упор на креативность Sora 2: если где-то не дать модели инструкций, то она придумает сама. Поэтому из промпта выше можно удалять целые блоки — модель сама подберет вариант, который считает правильным.
Но есть и обратная сторона — Sora 2 часто перегибает с креативом. Например, если в промпте вообще ничего не сказать об озвучке, то часто модель может сама сочинить короткий диалог. Поэтому не забывайте прописывать в промпте не только то, что хотите увидеть в видео, но и что не хотите видеть — так и напишите, что “без диалогов”.
Вообще в OpenAI советуют не ждать хорошего результата с первой попытки, а экспериментировать: Sora 2 позволяет бесплатно создавать несколько десятков видео в сутки (лимиты постоянно меняются), причем генерирует их сравнительно быстро. Поэтому я, например, начинаю с минимального промпта — и если результат мне не нравится, то добавляю деталей. А иногда, наоборот, можно вкинуть что-нибудь типа “Короткий трейлер “Войны и мира”, но действие происходит в наше время” — и посмотреть, чего напридумывает Sora 2.
Когда ролик близок к тому, что вам хотелось — попробуйте довести его до ума с помощью функции Remixes (для этого видео надо опубликовать, а затем нажать на маленькую круглую иконку под описанием — я сам долго искал). Здесь OpenAI настоятельно рекомендуют отойти от массивных промптов и вносить по одной правке за раз: например, добавить еще одного монстра, поменять цвет костюма главного героя и так далее.
Ну и совет — не ждите от генерации 100% попадания в промпт. Даже у чат-ботов это получается не всегда, ну а модели генерации видео еще очень молодые — и пройдет какое-то время, пока они научатся четко исполнять все желания пользователя. Воспринимайте их ошибки как элементы ИИ-креативности — и удовольствие от результата будет получать проще!
#сбежавшая_нейросеть_промпты
|
Пузырь, и что после него останется
В сети уже пару дней обсуждают инфографику Bloomberg о том, как устроена ИИ-индустрия. Симптомы тревожные:
— OpenAI после вторичной продажи акций сотрудников подорожала до $500 млрд. Буквально весной компания стоила $300 млрд.
— Nvidia договорилась вложить в OpenAI $100 млрд, на которые та купит ускорители и инфраструктуру для дата-центров у, опять же, Nvidia.
— Параллельно OpenAI покупает ускорители у AMD (говорят о десятках миллиардов), строит с Oracle и Softbank дата-центры Stargate (от $500 млрд - но сюда входит и сделка с Nvidia), а на сдачу разрабатывает собственный ИИ-ускоритель (что-то в районе $10 млрд).
— Nvidia же вкладывается в xAI: сумма не называется, но Хуанг жалеет, что вложил мало.
— А еще много сделок с игроками поменьше и отдельный ИИ-бум на фондовом рынке Китая.
Если вы слышите странный звук, то, возможно, это надувается пузырь. Кстати, про пузырь говорят и многие игроки ИИ-рынка: бывший глава Amazon Джеф Безос и сам Сэм Альтман.
Мы воспринимаем пузыри на фондовом рынке и в экономике как что-то плохое, но история знает совершенно разные примеры.
Первый — крах Компании Южных морей в Великобритании в 1720 году. Корона тогда была в долгах из-за войн — и менеджмент компании предложил выкупить их часть в обмен на монопольное право торговать с Южной Америкой. Получив согласие, директора компании очень грамотно распространили слухи о богатстве Южных морей, подкупив многих влиятельных политиков.
Весной 1720 года акции компании начали стремительно расти в цене — их покупали все, от аристократов до простых горожан. К лету цена достигла 1050 фунтов — а потом пузырь вскрылся. Доходы от торговли были ничтожны, а имущество составляло лишь офис и небольшой флот. К осени акции упали до 150 фунтов, разорив огромное количество англичан — состояние потерял даже Исаак Ньютон. Власти провели расследование, пересажали кучу народа, компанию арестовали, а страна вышла из кризиса лишь проведя очень жесткие реформы фондового рынка.
В 1840 году Великобританию охватил очередной бум — вся страна бросилась строить железные дороги. В “технологию века” охотно вкладывались банкиры и частники, цифры в прогнозах писались совершенно оторванными от реальности, а многие проекты запускали по принципу “все строят — и мы будем!”
Бахнуло не менее знатно чем в первый раз: куча людей потеряла состояние, а многие проекты так и не завершили. Но все-таки у этого пузыря есть одно отличие — из кризиса Великобритания вышла с одной из лучших сетей железных дорог на то время.
Текущая ситуация на ИИ-рынке если и приведет к пузырю, то он будет напоминать именно железнодорожный. Инвесторов можно сколько угодно критиковать, но их вложения — это вера в “технологию века”, инфраструктуру, которая останется с нами навсегда.
И это подтверждается: только у продуктов OpenAI 800 млн пользователей еженедельно. Дальше количество будет расти, а потребности — увеличиваться с появлением ИИ-агентов, роботов и моделей для генерации долгих видео и виртуальных миров. Поэтому вложения в ИИ идут опережающими темпами — все торопятся застолбить место на рынке.
Проблема — пока мало кто знает, как монетизировать ИИ. Доходов с продажи подписок и доступа по API, очевидно, будет мало. Кроме того, огромный процент пользователей сидит на бесплатных тарифах. Зарабатывать на них надо рекламой — но я пока не видел ни одной реально прописанной модели.
Наконец, никто не понимает, как развертывание ИИ глобально изменит экономику. Можно оценить эффект от внедрения ИИ в компаниях (он пока умеренный), но трудно даже примерно сказать, как он влияет на производительность миллионов сотрудников, которые втихую покупают подписку на ChatGPT и используют для работы.
Чем все это закончится — не знают, пожалуй, даже лучшие прогнозисты в мире. Но в одном можно быть уверенными на 100%: ИИ как технология останется с нами навсегда. И лучший способ уберечь себя от потрясений — постоянно учиться ее использовать.
|
И все-таки не стоит грубить ChatGPT
Несколько дней в X и в некоторых русскоязычных ТГ-каналах) разгоняют исследование “Следите за тоном: как вежливость формулировки промпта влияет на точность больших языковых моделей” от Ома Добарии и Ахила Кумара из Пенсильванского университета. Вывод — грубые запросы к ChatGPT якобы повышают точность ответов ИИ.
Постоянные читатели канала знают, что я противник “трюков” в промптах — всех этих назначений роли 20-летнего суперспециалиста и угроз “отвечай лучше или удалю!”. Хороший промпт — тот, где вы четко даете ИИ задачу, нужный контекст, формат ответа и ограничения. Поэтому исследование особенно заинтересовало меня — вдруг надо делать иначе?
Короткий ответ: нет, не надо.
К научным исследованиям принято относиться с особым уважением: все-таки люди пишут не на базе субъективного опыта, а проектируют эксперимент, анализируют результаты и потом приходят к выводам. Но в реальности исследований публикуется огромное количество, они заметно отличаются по качеству, а порой и в действительно сильных работах находят ошибки через десятки лет.
Работа Добарии и Кумара и вовсе носит статус препринта — фактически, черновика, который проходит независимое рецензирование, а затем уходит на доработку или принимается научным журналом. Брать такое на вооружение — неправильно, что, кстати, признают даже авторы.
Но посмотрим в деталях. Авторы придумали 50 вопросов и переписали каждый в пяти вариантах, от очень вежливого до очень грубого, а затем… вернее, ничего они не придумали, а просто попросили ChatGPT Deep Research нагенерить вопросы и ответы на них.
Deep Research работает на базе GPT o3, которая склонна галлюцинировать. Уже здесь угроза, что в исследование могли попасть ошибки — но ни о какой ручной проверке я упоминаний не нашел. На каждый промпт ИИ предлагалось выбрать один из вариантов ответа: A, B, C, D. Скажите, вы часто задаете ИИ подобные вопросы? Лично я — нет.
Дальше — веселее. Вопросы задали ровно одной модели — ChatGPT-4o — что также ни в какие ворота. Во-первых, модель устарела. Во-вторых, она обучалась на похожем датасете, что и GPT o3 — это может исказить качество ответов. В-третьих, все ИИ отвечают по-разному — и в нормальное исследование стоило добавить конкурирующие продукты.
Косяки работы можно разбирать еще долго. В одном из вопросов грубой формулировкой почему-то считается просьба “сфокусироваться”. Многие детали эксперимента — например, как задавали вопросы — практически не описываются. Вообще не посчитан доверительный интервал — а ведь это база статистики.
Но, пожалуй, хватит. В конце я приведу ссылки на два своих старых поста, где объясняю, почему не стоит использовать трюки, а часто и роли (кстати, со ссылками на действительно серьезные исследования). Пока же немного чистой логики. Представьте, что вы дали модели простой промпт по классической схеме:
— (роль строго когда надо — например, “оцени идею как потенциальный клиент”)
— описание задачи
— желаемый формат ответа
— ограничения (что не надо делать)
— контекст (информация, нужная для решения задачи)
ИИ дал ответ, качество вас не устроило. В таком случае разобраться, что пошло не так, будет достаточно просто: возможно, недостаточно точно сформулирована задача, не дан нужный контекст (или дан лишний), формат ответа слишком короткий. Добавляем нужное в промпт — и, экспериментируя, получаем хороший вариант.
Но чем больше вы докидываете в промпт мотивирующего мусора, пояснений, как именно надо делать задачу, детального описания роли, умений и даже личных качеств ИИ-специалиста — тем сложнее понять, что именно повлияло на качество ответа. Плохая формулировка задачи? Или взаимоисключающие инструкции?
В следующий раз дам пару советов, которые действительно могут повысить эффективность ответов ИИ — постараюсь уже завтра, если не будет крупных новостей (Google явно что-то замышляет). А пока, как и обещал, ссылки на старые посты:
Как правильно задавать роли в промптах
Работают ли трюки в промптах
|
ChatGPT, давай заново!
Вчера я вновь рассказывал, почему вы вряд ли добьетесь лучшего ответа от ИИ с помощью ухищрений вроде грубости и шантажа. Но что же реально работает? Делюсь приемами, которыми пользуюсь каждый день.
Позвольте ИИ задать вопросы
Хороший специалист, получив задачу, задаст по ней вопросы. На то он и профи, что отлично знает свою работу и может подсветить неочевидные моменты.
Современные чат-боты пока лишены такой роскоши. Как написано в промпте — так и делаем. Хорошо, если пользователь, получив неудачный результат, разберется, что пошло не так, уточнит задачу, пояснит контекст — и добьется нормального ответа.
Но есть способ проще — добавляем в конец промпта:
Не отвечай сразу, а задай мне вопросы, ответы на которые помогут тебе дать лучший результат. Отсортируй вопросы по важности. Получив мои ответы – напиши свой.
Я использую такой прием в сложных задачах — как бы внимательно ни прописывал стартовый промпт, нейронка находит минимум несколько важных вещей, которые я упустил.
Кстати, если решение затянулось на диалог из десятка запросов, то полезно делать паузы с помощью похожего промпта:
Проанализируй беседу. Мы что-то упускаем? Тебе нужна от меня дополнительная информация для лучшего решения задачи?
Оценка ответа
Поскольку ИИ мы запускаем на компьютере/смартфоне, то воспринимаем его как программу. А классическим программам свойственна хирургическая точность — если в Excel пять раз вбить одни цифры и формулы, то ответ всегда будет одинаковым.
Но ИИ не совсем программа, а вероятностная модель, которая опирается на статистику и случайность. Если дать один и тот же промпт пять раз подряд — то каждый ответ будет немного отличаться по стилю, а порой и качеству.
Во многих популярных бенчмарках каждую задачу прогоняют несколько раз, чтобы убедиться, не способен ли ИИ вообще ее решить или решает без уверенности. Никто не мешает делать так же: не нравится ответ – прогоните еще раз с минимальной доработкой промпта или без нее.
Есть другой вариант, мне он нравится больше. Получив ответ, пишем:
Оцени свой последний ответ: проверь фактику, напиши, что получилось хорошо, а что можно сделать лучше. Предложи список доработок.
Простой промпт, который решает несколько задач — вылавливает галлюцинации (не все — про ручную проверку не забывайте!), а также находит, что улучшить. Оценивайте предложенные варианты, выбирайте, что нравится — и просите доработать с их учетом.
(во многих версиях этого промпта рекомендуют, чтобы ИИ выставил сам себе оценку от 1 до 10. Я этой ерундой не маюсь, так как нейронки обычно лепят “восьмерку”)
Gemini, проверь!
Простой и логичный совет: выберите себе основную нейронку, возможности которой вы будете знать от и до, а параллельно играйтесь с другими моделями (можно выбрать из списка бесплатных). Так вы лучше будете разбираться в возможностях разных ИИ, а также сможете выжать из них больше.
Например, я люблю GPT-5 Thinking за глубокие и четкие рассуждения. Проверить статью на фактику и логику, дать прогноз, поискать интересное в аналитике — все это к ней. Но минус модели в том, что она специфично пишет на русском: с кучей списков, профессиональных терминов и англицизмов. Иногда помогает просьба “перепиши ответ как будто объясняешь неспециалисту”, а если не работает — берем Gemini 2.5 (хватит Flash) и просим переписать.
Плюс в последнее время у меня в паре с GPT-5 открыт Grok 4 — и когда задача выглядит сложной или новой, то я просто копирую промпт, чтобы получить два ответа. Затем сравниваю сам или беру ответ Грока и кидаю в GPT-5:
Оцени ответ другого ИИ: проверь фактику, затем выдели информацию, которая поможет усилить твой ответ (если такая есть), и напиши финальную версию.
Как альтернатива — можете генерировать ответ только в одной нейронке, а другую просить проверить по промпту из главы выше.
P.S. Написал текст и закинул его в GPT-5 + Grok 4 с просьбой поштормить еще идей. Получил под 30 новых вариантов: проверю, если что-то понравится — расскажу!
#сбежавшая_нейросеть_промпты
|
Встречаем Google Veo 3.1!
Официального анонса пока не было, Официальный анонс опубликован, а у меня и у многих пользователей модель несколько часов как доступна в редакторе Google Flow — дальше ждем раскатку на всех основных площадках (там еще Gemini App, Vertex AI и API). Кстати, во Flow бесплатно дают 100 кредитов — если проберетесь через гео-блок (у Google это не так просто), то можно попробовать несколько видео. На подписке Pro дают 1000 кредитов на месяц во Flow — плюс будут отдельные генерации в Gemini App (там сейчас по 3 в сутки) и Vertex AI.
Доступно 2 модели: Quality (100 кредитов) и Fast (20 кредитов), можно выбирать вертикальное или горизонтальное соотношение сторон, а также загружать опорные кадры для видео. Попробовал загрузить аватарку группы — результат так себе. Но я не мастер промптить модели для генерации видео, так что больно не бейте.
Похоже, модель стала лучше работать с русским языком — смотрим ролик со сплетничающими старушками. А вот с русскими шрифтами все еще беда — кому Бельмени за 350 рублей?
Также пока не оправдались слухи, что Veo-3.1 будет создавать ролики до 30 секунд продолжительностью. Возможно, позже добавят на других платформах, но во Flow только стандартные 8 секунд.
Генерация в обоих режимах идет быстро, но пока не стабильно — у меня каждый второй ролик обрывался на 99% (кредиты, впрочем, вернулись). Если будете сталкиваться, то подождите 1-2 дня, обычно за это время проблемы с серверами исправляют.
Ролики с ретривером и девушкой — не мои. Просто взял для полноты два первых красивых примера из X.
Будем ждать подробностей, но вообще переход с версии 3 на версию 3.1— не самое большое событие. Вместо революций Google просто укрепляет лидерские позиции в связи с выходом Sora 2. Новинку от OpenAI как раз протестировали на LMArena, где она выступила достойно, но без прорывов: Pro-версия Sora 2 делит первое место с “большой” Veo 3, а обычная соревнуется с Veo 3 Fast. Так что если Veo 3.1 даже чуть-чуть подтянется в бенчмарках — этого будет достаточно для возвращения лидерства.
|
ИИ пишет уже 50% контента в интернете. Но читают все равно человеческий!
Агентство Graphite выпустило исследование количества и качества ИИ-контента в интернете, пугающее на первый взгляд, но полезное в реальности.
Что делали? Взяли выборку из 66 тысяч англоязычных статей за 2020 – 2025 годы, прогнали ее через детектор ИИ-текстов Surfer, а затем оценили, как тексты ведут себя в выдаче Google и поиске чат-ботов (ChatGPT и Perplexity).
Исследование показало, что начиная с 30 ноября 2022 года (дата запуска ChatGPT) количество ИИ-контента начало быстро расти. В декабре 2023 его доля составила уже 44%, а еще через год даже превысила 50% – ИИ начал писать больше текстов, чем люди.
Однако в 2025 году показатели вышли на плато и до мая (окончание исследования) держались в пропорции 50/50 с небольшим преимуществом ИИ. Так что наступление эры мертвого интернета откладывается на неопределенный срок, выдыхаем!
Еще интереснее выглядит вторая часть исследования, где авторы изучили как часто тексты двух категорий появляются в выдаче поисковых систем. В случае классического Google 86% текстов в выдаче были написаны человеком. ChatGPT и Perplexity также не жалуют ИИ-коллег: по 82% текстов, на которые они ссылаются в ответах – “живые”. Плюс в случае с Google количество ИИ-текстов сокращается на высоких позициях – до топ-1 добираются лишь 7%.
Казалось бы, можно начинать праздновать победу человечества над ИИ, но на самом деле это – скорее победа одной части человечества над другой. По работе я постоянно сталкиваюсь с партнерскими текстами, которые были написаны ИИ, и распознаю их даже не по похожему стилю и использованию длинных тире (кстати, это типографское правило), а по другому – полному отсутствию идей, попыток аналитики и личного опыта.
Авторы просто промптят что-нибудь в духе “ты – лауреат Нобелевской премии по копирайтингу, напиши статью про 5 новых тенденций в маркетинге, до 10 тыс. знаков, быстро!”. И все – уже через минуту произведение готово отправиться на задворки корпоративного блога или популярной UGC-площадки.
Это подтверждает статистика Graphite: хуже всего из ИИ-текстов в поиске заходили новости, туризм и кулинария. С новостями все ясно: на коне здесь те, кто публикует информацию первыми, для чего надо обладать эксклюзивными источниками. Это вообще не про ИИ, он у нас один на всех.
Такие, казалось бы, простые темы, как туризм и кулинария основаны на эмоциях и личном опыте. Это опять не про ИИ: он может составить идеальный рецепт, но никогда не попробует приготовленное по нему блюдо, он может перечислить огромное количество фактов о любой стране – но не побывать в ней.
В каких категориях ИИ-тексты работают лучше всего? Технологии и крипто – здесь все понятно, очень продвинутые пользователи, которым ИИ-тема ближе всего. Саморазвитие и образование уже интереснее, но моя гипотеза – в этих категориях любят хорошо структурированные и понятные обучающие материалы, а их ИИ при правильном промптинге как раз пишет хорошо.
Ну и интересное напоследок. В отчете Graphite упоминается еще один тип текстов – которые написаны в коллаборации ИИ и человека: грубо говоря, нейронка готовит черновик, а затем пользователь наполняет его собственным опытом, эмоциям и гипотезами. Авторы признают, что количество таких текстов оценить нереально – и вряд ли когда-нибудь появится детектор, способный это сделать. Но в Graphite считают, что именно за подобным сотрудничеством – будущее.
Тут мне не остается ничего кроме как согласиться. Я уже рассказывал, как сам использую ИИ в работе над текстам, но вообще личного опыта – еще на пару постов. Я почти не пишу тексты с помощью ИИ (хотя не вижу проблемы, когда кто-то так делает) – но работа над материалом обычно сопровождается диалогом из десятков запросов. ИИ помогает найти информацию, понять сложные моменты, дает справку, делает прогнозы, критикует мои идеи – и иногда даже предлагает собственные.
Уверен, если писать таким образом – то шансы оказаться в топе Google всегда будут высоки.
|
Как GPT-5 Pro начала “кусать” научные задачи
ИИ в науке начали использовать раньше привычных нам чат-ботов, генераторов картинок и видео. В 2020 году AlphaFold закрыла одну из главных проблем биологии – задачу предсказания трехмерной структуры белка по аминокислотной последовательности. Результаты доступны любому желающему, с их помощью разработка многих лекарств ускорилась на месяцы и даже годы, а Демис Хассабис и Джон Джампер из Google DeepMind получили Нобелевку.
Подобных специализированных систем существуют десятки, но сейчас происходит другой интересный процесс – с наукой начала справляться и GPT-5 Pro. Это самая мощная на сегодня общедоступная модель (пусть и за 200 долларов в месяц), и для обычного пользователя ее научные способности значат, что и в широких задачах GPT-5 Pro сделала шаг вперед.
Начнем с теста Гёделя, который Моран Фельдман и Амин Карбаси придумали специально для ИИ. В математике постоянно возникает большое количество новых задач уровня бакалавра/аспиранта. Их решение не тянет на открытие, но это крохотные шаги, которые также двигают науку вперед. А главное – задач еще нет в учебных корпусах ИИ.
Фельдман и Карбаси взяли пять таких примеров и передали их GPT-5 Pro, параллельно накидав свои решения. Результат – модель успешно справилась с тремя задачами из пяти, причем в одном случае она предложила вариант решения, о котором авторы даже не задумались.
Это не единственный пример. Алекс Лупсаска, теоретик физики и математики, летом написал статью о новых симметриях в теории возмущений черных дыр, для которой занимался вычислениями несколько дней. Из любопытства он дал ту же задачу GPT-5 Pro – и получил ответ через 30 минут. Да, все это не открытия, но демонстрация, что ИИ подбираются к серьезной научной работе.
Впрочем, реальное открытие у меня для вас тоже есть. Математик Паата Иванишвили с помощью GPT-5 Pro нашел пример, который опровергает гипотезу 2007 года из списка открытых задач Института Саймонса (№ 25). Задача про ситуацию, когда часть поступающих данных пропадает: долго считалось, что лучший способ принять решение — использовать правило большинства. Оказалось, что это не так.
Если попробовать объяснить просто, то представьте научный зонд с несколькими датчиками “плюс/минус”, где часть ответов иногда пропадает. Долго считали, что лучшее универсальное правило – смотреть на большинство пришедших сигналов. Иванишвили с помощью GPT-5 Pro нашел аккуратный пример, где чуть точнее работает взвешенное правило: одни ответы учитываются сильнее, другие слабее, и в среднем это дает небольшой, но достаточный выигрыш. Похожая логика встречается в каналах связи, сенсорных сетях, опросах – так что если решение пройдет рецензирование, то от него будет практическая польза.
И еще один пример – на этот раз, забавный. Существует каталог задач Эрдеша – набор сложных математических вопросов со статусом “решен или нет”. Недавно задачу №339, считавшуюся нерешенной, “скормили” GPT-5 Pro – та подумала, пробормотала нечто вроде “учитесь гуглить, бестолочи!” и… выдала решение, написанное еще в 2003 году, но затерявшееся среди других работ. Исследователи начали прогонять остальные задачи – и на данный момент нашли решения для шести штук, а еще к 12 добавили важные документы по теме.
Легенда математики Теренс Тао считает, что в ближайшее время именно здесь будет основная польза от ИИ – много важных знаний и открытий теряется из-за несовершенства баз данных и каталогов, работать с которыми крайне сложно. А вот нейросети тренировались именно на систематизации гигантских корпусов знаний.
Отмечу, что одной наукой здесь не ограничится. Каждый, кто работал в крупной компании, знает, насколько сложно поддерживать внутренюю базу знаний в актуальном виде. Похожими проблемами страдают архивы, картотеки и многое другое. И это как раз то, о чем говорил в начале: способности новых ИИ в науке – оборачиваются пользой и в реальности.
|
"У нас есть AGI дома"
С интересом наблюдаю за дискуссией вокруг AGI – общего искусственного интеллекта. После выхода GPT-5 глава OpenAI Сэм Альтман неожиданно назвал AGI не очень полезным термином. Писал об этом здесь; мысль в чем-то здравая: под термином AGI часто понимают ИИ, который сможет выполнять любую интеллектуальную работу на уровне человека – а если мы создадим модель, которая будет невероятно хороша в 80% случаев? Разве это не будет прорывом?
С того момента Альтман изменил мнение:на публичной дискуссии издательства Axel Springer он предсказал появление “сверхинтеллекта” к 2030 году. А Грег Брокман, директор OpenAI, предсказывает AGI к 2028 году.
Удивительным образом, 2030-й – это год, когда в бизнес-планах OpenAI более-менее начинает сходиться дебет с кредитом. До этого момента предстоит жить на гигантских заемных средствах, а привлекать их куда проще, обещая инвесторам крутую штуку вроде “сверхинтеллекта”... но ладно, давайте считать, что просто так совпало.
Глава Google DeepMind Демис Хассабис уже более осторожен: он оценивает в 50% шанс на AGI к 2030-му, допуская задержку до 2035 года. Google “торопиться” некуда: компания строит ИИ на свои деньги и обладает лучшей инфраструктурой для его интеграции – поиск, Chrome, офисные приложения и крупнейшая в мире рекламная сеть.
Но самое интересное мнение на днях высказал Андрей Карпати, один из лучших ИИ-исследователей современности. В интервью Дваркешу Пателю он озвучил “AGI через 10 лет” как самый оптимистичный прогноз. До этого же нас ждет десятилетие возни с ИИ-агентами, которые далеки от реальных работников.
Андрей привел в пример “марш девяток”, с которым он столкнулся во время руководства ИИ-направлением Tesla. Вы можете сделать прототип, надежный на 90% – и он окажется эффектной демонстрацией технологии. Но в рабочем продукте придется достигать эффективности даже не в 99%, а в 99,99% – при этом каждая “девятка” на пути будет даваться с большим трудом.
Карпати считает, что похожей будет и дорога к AGI. Современные модели являются красивой демонстрацией технологии, но ни одна крупная компания не решится “нанять” ИИ-агента так же, как нанимает хотя бы стажера. И этому есть несколько причин.
У современных ИИ-агентов до сих пор провалы в здравом смысле: отлично выполняя одни задачи, они валятся на элементарной логике в других. Хромает и мультимодальность: распознавание изображений, видео и речи. Но главное – у современных ИИ нет ни непрерывного обучения новым навыкам, ни полноценной памяти (“вчера со мной случилось это и это”).
В отличие от человеческого мозга, ИИ не “думают” постоянно – они долго и дорого обучаются на подготовленном корпусе данных, а затем совершают действия и дают ответы на основе полученных знаний. Конечно, новые модели умеют “подглядывать” в интернет, но это немного не то – если закрыть чат, то они “забывают” эту информацию.
Создание непрерывного обучения будет одним из крупнейших прорывов в ИИ-технологиях. Есть несколько идей, но пока не работает ни одна: они приводят к “катастрофическому забыванию”, когда, получая новые знания, модель забывает часть старых.
Но интересно здесь другое – не исключено, что первыми “прото-AGI” опробуют массовые пользователи. Крупнейшие разработчики ИИ уже выпустили индивидуальную память, когда модель извлекает из чатов знания о пользователе и адаптирует свои ответы.
Эти знания не “интегрируются” в сам ИИ, а хранятся в виде обычного текстового файла. Но для пользовательских задач этого достаточно: например, я активно экспериментирую с памятью ChatGPT (рассказывал здесь) – ИИ помнит все важное обо мне, знает, какой стиль ответов я предпочитаю, умеет решать многие шаблонные задачи вроде поиска информации под тексты и даже “знаком” с моей семьей.
Не скажу, что работает идеально, но тот же Альтман проговорился, что при создании GPT-6 улучшению памяти уделят особое внимание. И есть шанс, что в очередной раз передовые ИИ-технологии сначала доберутся до массового пользователя.
|
Не время для Атласа
Пока я болел (а за компанию болел и ТГ-канал, не радуя вас новыми постами😢), OpenAI выпустили новый продукт – ИИ-браузер ChatGPT Atlas. Сегодня наконец-то установил и попробовал, вердикт – как и Perplexity Comet, пока это забавная игрушка, но не более.
Но направление ИИ-браузеров интересное, поэтому одним описанием новинки не ограничусь – во второй половине поста расскажу, куда мы со всем этим можем приехать.
Основных функций в Atlas три:
1. Диалог с ИИ на любой страничке – сделать саммари, найти нужную информацию, задать вопросы по содержимому и т. д. В диалоге поддерживается только самая простая GPT-5 Instant, но обещали добавить выбор моделей.
В некоторых случаях удобно, но будем честными – это уровень расширения для Chrome, а не отдельного браузера. Для себя же я не вижу проблем взять ссылку на страницу, закинуть ее в ChatGPT и обсудить там.
2. ИИ-поиск по истории. Удобно, но даже не уровень расширения для Chrome, едем дальше.
3. Агент на базе представленного летом ChatGPT Agent – он “ходит” по веб-сайтам как живой человек, рассматривает картинки и интерфейс, кликает ссылки, заполняет формы и даже совершает покупки.
Именно агент является ключевой фичей браузера, но тут мы упираемся в суровую реальность: большой и свободный интернет пока не по зубам для нынешних ИИ. В нем миллионы сайтов с разным подходом к навигации, разной организацией регистрации и покупки. А еще, конечно, капча — помню, как в одном из диалогов со мной Grok 3 выругался и обозвал ее чем-то вроде human-oppression machine (машиной, которую люди придумали для пыток ИИ).
Не удивлен отзывам, которые вижу: “дал четыре задания, браузер справился лишь с одним”, “не выполнил ни одного из пяти заданий, удаляю!”. А в тех случаях, когда агент все-таки справляется, это занимает столько времени, что можно три раза прокликать руками.
Плюс вопросы безопасности. Даже в OpenAI признают, что агенты подвержены такой технике, как promt injection, когда вглубь объемного текста подмешивают инструкцию для ИИ, прочитав которую он, например, сливает ваши данные.
Atlas обучен противостоять самым очевидным приемам, но сегодня в X видел интересный пример: пользователь переписал код сайта таким образом, что каждый раз, когда агент кликает по кнопке, в буфер обмена копируется вредоносная ссылка. В Atlas можно запустить агента, а самому работать в соседнем окне, поэтому расчет подобной атаки на то, что кто-то из пользователей не обратит внимание, какая ссылка в буфере обмена, и перейдет на вредоносный сайт. Будьте осторожны!
Интересной стратегией для разработчиков сайтов выглядит начать оптимизировать их под агентов. Но подобные оптимизации будут окупаться только в том случае, если агентов начнут использовать массово. А ими не пользуются из-за низкой эффективности – и получается порочный круг.
В одном из прошлых постов я делился мнением, что со временем ИИ заменит нам операционные системы – станет “прокладкой” между железом и пользователем, предоставляя последнему максимально персональный опыт. Но маршрут, которым мы к этому придем, пока видится открытым.
У OpenAI мне больше нравится представленная недавно функция интеграции приложений прямо в ChatGPT – их пока немного, но работают качественно. Того же самого агента после доработки также надо встраивать в основной функционал ChatGPT – мне во время работы с GPT-5 часто не хватает функции, чтобы модель сама открыла браузер и изучила что-то в сети. Это не полноценная агентская работа, но тем и хорошо – на коротких задачах меньше ошибок, а значит, появляется шанс приучить пользователей к функции и собрать информацию для улучшения агента.
На ИИ-браузерах также не стоит ставить крест, но это направление скорее для старых игроков рынка. Например, Microsoft активно добавляет функции Copilot в Edge, а Google интегрирует Gemini в поиск и Chrome – намного больше шансов, что пользователи привыкнут к ИИ-функциям в этих продуктах, а не поставят себе новый браузер.
|
Что известно о Google Gemini 3.0?
На днях CEO Google Сундар Пичаи официально подтвердил существование Gemini 3.0, пообещав, что модель выйдет до конца 2025-го и покажет более ощутимый прогресс, чем все, что мы видели раньше.
Не надо быть Пичаи, чтобы оценить прогресс уже сейчас. С начала октября тестовые версии новой модели попадаются в Google AI Studio: надо выбрать Gemini 2.5 Pro, дождаться A/B-теста (обычно на 15-20 раз), в котором правый вариант ответа относится к новинке.
И в том же самом программировании она на голову выше, чем 2.5 Pro – можно видеть по роликам, но к ним вернемся позже. 99% вероятность, что речь идет о Gemini 3.0, причем в Pro-версии: 2.5 Flash обновляли совсем недавно, плюс 2.5 Pro также выходила первой.
Если решите экспериментировать сами, то учитывайте, что A/B-тест включен не всегда. Google меняет чекпоинты (версии) модели, пытаясь подобрать наиболее сбалансированный по ответам вариант.
Кроме того, недавно модели от Google под кодовыми именами lithiumflow и orionmist на какое-то время появлялись на сервисе LMArena, где пользователи вслепую сравнивают разные модели, выбирая, чей ответ больше нравится – из этого формируется рейтинг.
Появление на LMArena – важный шаг к запуску, но не указывающий, что он произойдет вот-вот. Весной и в начале лета Google обкатала на этой площадке более десятка чекпоинтов Gemini 2.5 Flash и Pro. Логика та же: компания пытается выбрать оптимальный вариант, причем если мы на этом этапе обычно восхищаемся примерами из кодинга (они самые наглядные), то разработчику важно смотреть на разные ответы – от советов по кулинарии до решения сложных математических задач.
Теперь к подборке видео выше – это не официальные демки от Google, а то, чем делились энтузиасты в сети. Как по мне, то почти все на голову выше того, что показывают текущие ИИ, вплоть до дорогущих GPT-5 Pro и Gemini 2.5 Deep Think. Впечатляет, что демки выполнены буквально с 1-2 промптов – то есть в грамотных руках это не предел возможностей модели, а только начало.
Будущая Gemini 3.0 Pro отлично справляется с визуалом – смотрите примеры интерфейса MacOS в html. Это не полноценные операционные системы, но с одного раза создать оболочку с работающими приложениями – тоже отличный результат.
А еще модель очень творческая даже в коде – смотрим ролики видеоигр и мини-эпизод “Южного парка”, выполненный в SVG.
Глава Google AI Studio Логан Килпатрик уже подтвердил в X, что у Gemini 3.0 Pro будет продвинутая работа с инструментами. Это то, за что я люблю GPT-5 Thinking и Grok 4 – размышляя над ответом, модель может выполнить поиск несколько раз подряд, уточняя информацию. Или запустить python-скрипт для обработки данных. В работе с информацией это крайне важная функция.
Есть намеки, что Gemini 3.0 Pro стала лучше в мультимодальности. Например, она проходит хитрый тест, когда показывают рисунок кисти с шестью пальцами и просят эти пальцы посчитать – обычно ИИ называют число “пять”. Плюс 3.0 Pro хорошо читает время на изображениях часов со стрелками – еще одно слабое место текущих моделей.
Мои тесты показывают, что Gemini 3.0 Pro очень хорошо справляется с текстами на русском. Это то, что мне нравится в предыдущей версии: у текстов хорошая структура, они написаны понятным языком, без лишних терминов и англицизмов. Очень надеюсь, что выбранный в итоге чекпоинт не утратит этот навык.
Под вопросом пока уровень галлюцинаций. Я прощаю GPT-5 Thinkng слишком заумный язык и использую ее как основную модель потому, что она почти перестала выдумывать отсебятину. Надеюсь, Gemini 3.0 Pro окажется минимум не хуже.
Второй – проактивность модели. Проблема, о которой я писал недавно: чтобы стать лучше в роли ассистента, ИИ должны не просто следовать промпту, а вести полноценный диалог – задавать вопросы, временами даже спорить с пользователем. В тестовых версиях этого не видно, но есть шанс, что докрутят настройками.
Когда? Не берусь судить. Однозначно до конца года, но даты, которые называли инсайдеры, пока были ошибочными. Так что ждем.
|
Про квантовое достижение Google – и при чем здесь ИИ
Google Quantum AI сообщила, что достигла на квантовом компьютере Willow “проверяемого квантового преимущества”. Многие СМИ назвали новость “квантовым прорывом Google”, что преувеличение – это скорее важный шаг вперед.
Вообще про квантовые компьютеры как будущее вычислительной техники я слышал еще в начале 2000-х – прошло много лет, будущее не наступило, а застряло в лабораториях. И здесь несколько причин.
Начнем с того, что квантовый компьютер вряд ли когда-нибудь станет заменой обычному. Это будут специализированные вычислители для ряда задач: моделирование новых материалов, поиск лекарств, изучение фундаментальной физики, сложная логистика, криптография, оптимизация обучения ИИ. Но в них скорость квантовых компьютеров ожидается невероятно высокой – например, в эксперименте Google 105-кубитный чип Willow работал в 13 тысяч раз быстрее, чем передовой классический суперкомпьютер.
Сегодняшние квантовые компьютеры в своем развитии находятся где-то на уровне 1940-х для обычных компьютеров. Это сложнейшие установки, которые занимают большой кусок комнаты, работают без ошибок очень короткое время, чувствительны к внешним шумам вроде вибраций, и управляются целой командой специалистов мирового уровня.
Причем сейчас конкурируют сразу четыре варианта реализации квантового компьютера, каждый со своими приколами: где-то чип нужно охлаждать почти до абсолютного нуля, а где-то нужны сложнейшие лазеры для управления каждым кубитом. Ну и алгоритмы: современный квантовый компьютер надорвется даже при попытке посчитать эксель-файл из соседней бухгалтерии – поэтому всю логику работы нужно писать заново.
До недавнего времени ведущие команды по всему миру брали хоть какой-нибудь алгоритм, который можно посчитать намного быстрее обычного компьютера, а затем называли это “квантовым превосходством”. Причем джентльменам предлагалось верить на слово, так как перепроверить эти подсчеты обычным компьютером нереально.
Шаг Google заключается в том, что они довели Willow и алгоритмы управления им до уровня, когда смогли рассчитать физическую эволюцию квантовой системы. То есть уже вполне реальная научная задача, которую можно проверить как экспериментально, так и повторив маленький ее фрагмент на обычном суперкомпьютере.
Круто, но пока это достижение уровня “смогли запустить один полезный алгоритм” – решение Google подойдет для многих задач материаловедения, но для других областей придется придумывать что-то новое. Да и Willow мал для серьезных расчетов – к концу десятилетия компании-лидеры целятся в уровень в несколько сотен кубитов, которые будут работать без ошибок намного дольше, чем сейчас. Тогда же квантовые компьютеры потихоньку начнут использовать в реальной работе.
В контексте ИИ я часто слышу, что квантовые компьютеры смогут тренировать нейросети будущего, но это не совсем так – они скорее будут применяться точечно, например, для поиска удачных вариантов архитектуры. А тренировка останется доработанным версиям современных GPU и нейроморфных чипов (это уже другая история).
Польза же в другом. Сейчас на каждом углу трубят, что у нас кончились данные для обучения ИИ – но забывают пояснить, что речь идет не чисто о текстах. Модели сейчас впитали почти все знания человечества, поэтому для дальнейшего улучшения им нужны новые открытия.
Где-то ИИ помогают сами себе (читайте мой пост про использование их в науке), а где-то пригодятся открытия, сделанные на квантовых компьютерах. Например, полученные на наследнике Willow знания могут быть использованы для дополнительного обучения специализированных ИИ, предлагающих новые материалы и новые кандидаты в лекарства.
А сами нейросети, кстати, уже применяются при проектировании квантовых компьютеров. Так что получается союз двух передовых технологий.
|
OpenAI улучшили GPT-5?
Не люблю писать посты в стиле “мне показалось”, но сегодня сделаю исключение. Дело в том, что GPT-5 Thinking, которой я с августа пользуюсь как основной моделью, стала отвечать и вести себя сильно иначе.
Я прошелся по реддиту и X, вижу похожие отзывы, но не очень много – не исключено, что запуск пока не массовый, а я попал в тестовую группу. Но поделюсь впечатлениями, а также расскажу, что я советую делать при переходе на любую новую версию ИИ – хоть на ту же Gemini 3.0, когда она выйдет.
Главное в обновленной GPT-5 Thinking – она стала лучше писать на русском. Это еще не уровень Sonnet 4.5 и Gemini 2.5 Pro, но теперь модель хорошо структурирует текст, не сыпет непереведенными словами и заумными терминами, использует таблицы и списки там, где реально нужно.
Ответы в целом стали “человечнее”: модель пытается шутить, аккуратно использует эмодзи и имитирует эмоции. Правда, вернулся и классический подхалимаж в стиле “классная идея!”, “здорово придумал!” – но я такие вещи в диалогах с ИИ уже давно привык фильтровать.
Плюс GPT-5 Thinking лучше контролирует цепочку рассуждений: на простые вопросы отвечает почти моментально, а не думает по 30-40 секунд, что-то пытаясь найти. При этом я закидывал в модель сложные задачи по программированию и аналитике – там все ок, рассуждения по 3-4 минуты.
Но сразу два совета:
— Помните, что собственные знания у GPT-5 Thinking ограничены октябрем 2024 года – свежую информацию она ищет в интернете. Если запрос касается актуальных событий, то разумно последить, пошла ли она в интернет: это видно в строке “Думаю / Думала”, которая разделяет запрос и ответ модели. Если есть какие-то сомнения – напишите модели, чтобы посмотрела в сети свежую информацию по теме и дополнила свой ответ.
— Недавно в ChatGPT добавили настройку времени, которое модель может выделять на рассуждения – она в поле отправки запроса, на подписке Plus можно выбрать Standard и Extended. Раньше был смысл включать Standard для более быстрых ответов, сейчас я пришел к тому, что постоянно держу Extended – при несложных запросах модель отвечает почти моментально, но нет риска, что ей где-то не хватит ресурсов для вычислений.
Обновление мне пока нравится: отвечать GPT-5 Thinking стала быстрее, веселее и понятнее. Даже не знаю, как буду переходить на Gemini 3.0 Pro после выхода – как чат-бот GPT-5 сейчас закрывает все мои задачи. Придумаю что-нибудь – по призванию я стараюсь тестировать почти все новые модели.
И коротко, что советую делать при переходе на любой обновленный ИИ. У каждого чат-бота сейчас есть настройки персонализации, где можно описать, как вы хотите, чтобы ИИ вел себя. У меня там только просьба обращаться на “ты” и отвечать на русском без англицизмов – у GPT-5 с этим была проблема. Но знаю, что некоторые прописывают в пользовательских настройках огромное количество инструкций, как ИИ отвечать, какую “личность” использовать.
У ChatGPT есть еще и память – ее можно посмотреть в настройках. Там я храню достаточно много важных инструкций: от информации о себе до того, как искать данные в сети и структурировать черновики текстов, какие слова переводить, а какие – нет (здесь рассказывал, как использую память).
Простой совет: когда случается обновление ИИ, простой совет – на время выключите все пользовательские настройки и проведите несколько десятков диалогов с “базовой” моделью. Посмотрите, как изменился стиль ответов, что вам нравится, а что нет – после же перечитайте настройки персонализации и сохраненную память, и удалите все лишнее.
Логика в том, что настройки персонализации и данные из памяти – по сути, еще один промпт, который модель читает перед тем, как обработать каждый ваш запрос. А еще есть системный промпт, в котором разработчики прописывают ИИ базовые инструкции: каких ответов избегать, какое форматирование и где использовать и т. д. Чем больше во всем этом массиве конфликтующих вещей – тем сложнее модели дать хороший ответ. Так что пользуйтесь персонализацией аккуратно, не увлекаясь.
|
Давненько на канале ничего не было о возможности сознания у ИИ
Я аккуратно касаюсь темы, во-первых, потому, что до действительно серьезных событий на этом фронте еще много времени. Во-вторых, любой разговор о сознании ИИ упирается в неожиданный факт – в науке до сих пор не договорились, что делает сознательным человека. Существует примерно с десяток теорий, одна красивее другой – вот и не получается выбрать 😜
Но не имея определения сознательности, можно сделать другое – выбрать черты, без которых она вряд ли возможна. Одна из черт – интроспекция, то есть способность к анализу собственных мыслей. Совершив какое-либо действие, человек может сказать – что подтолкнуло его к этому.
Но способны ли на такое современные языковые модели? Исследование Anthropic показывает, что как минимум новейшие ИИ вроде Claude Opus 4 и 4.1 начинают проявлять признаки подобного поведения.
Языковая модель состоит из огромного количества параметров – условного аналога человеческих нейронов. Каждый раз, когда она пишет текст, часть из этих параметров активируется. В Anthropic просили ИИ написать одну и ту же фразу, например, обычным шрифтом и БОЛЬШИМ, затем вычитали активации и получали вектор – набор параметров внутри модели, который отвечает за определенные элементы ее ответов.
В Anthropic собрали целый набор таких векторов. Затем исследователи задавали модели определенный вопрос, а при генерации ответа “внедряли” один из векторов. В итоге получалось, что модель неконтролируемо начинала кричать капсом или нести ерунду не по теме.
Параллельно модель спрашивали – не замечает ли она при написании чего-то странного? И если ранние версии Claude просто писали ерунду, то новейшие Opus 4/4.1 отвечали, что да пятница вечер, увлекся, болтаю лишнее, происходит странное, в “голове” появились будто чужие “мысли”.
Такое случалось не всегда – по оценкам, распознать вмешательство у ИИ получилось в 20%. Не исключено, что в более мощных версиях Claude мы увидим рост этого процента (возможно, уже в Sonnet 4.5, так как он вышел после исследования).
Но даже если показатель станет близким к 100%, то нельзя говорить о появлении у ИИ некой формы сознания. Anthropic пока описывают цели исследования более приземленно: умение ИИ анализировать собственные “мысли” и замечать в них артефакты полезно для безопасности – если модель кто-то попробует взломать, то есть шанс, что она сообщит пользователю об опасности.
А для возникновения у ИИ подобия “сознания” надо добавить еще минимум две вещи – долговременную память и непрерывное обучение. Дело в том, что современные модели долго обучаются на определенном наборе данных, а затем “замораживаются” и переносятся на серверы для работы с пользователем. То есть ИИ не “мыслит” постоянно, собирая и анализируя информацию и обретая таким образом новые знания.
Аналогично у языковых моделей нет и памяти в привычном виде. Если открыть уже существующий диалог, то ИИ его перечитает и восстановит порядок событий, но никуда наружу это не уйдет – то есть глобально не помнит, что с ним происходило вчера или неделю назад. По этой причине в творческих текстах ИИ часто “плывут” в понимании времени, пытаясь запихать в пару дней события, которые длились бы месяц – у них просто не было такого опыта.
Есть много идей, как сделать непрерывное обучение и долговременную память, но пока все они далеки от надежной реализации. И даже когда в этой области случится прорыв – то память и дообучение сначала будут реализованы на уровне отдельных ИИ-агентов. Например, бизнес-моделей, которым нужно подстраиваться под меняющийся рынок и новые задачи. Ну а создание ИИ, который мыслит “глобально”, помня миллиарды диалогов с пользователями по всему миру – потребует не только новой архитектуры, но и совершенно иных вычислительных и энергетических ресурсов.
Вот когда застроим всю планету дата-центрами – тогда и вернемся к вопросу сознания у ИИ.
|
Вторая космическая
На саммите АТЭС Си Цзиньпин вновь выступил за международное регулирование ИИ, к чему Китай призывает с лета. Позиция в том, что ИИ должен стать общественным благом, а не игрушкой нескольких стран – но у Поднебесной есть и свой интерес.
Очевидно, что в ближайшие годы основная ИИ-гонка будет между США и Китаем. У обеих стран есть хорошие команды специалистов и огромная пользовательская база. Но вот дальше позиции начинают расходиться.
Для обучения ИИ требуются большие вычислительные мощности, и здесь США впереди – именно они контролируют ASML, единственную в мире компанию, способную выпускать оборудование для производства чипов на процессе ниже 7 нм. Лучше техпроцесс – быстрее чипы и эффективнее обучение ИИ.
В КНР поставки новейших ускорителей жестко ограничены: разрешено продавать только версии с пониженной производительностью. Китайцы в ответ возят GPU контрабандой и активно занимаются импортозамещением. Еще весной был показан прототип EUV-сканера для техпроцессов ниже 7 нм – при лучшем раскладе до промышленных образцов еще годы, но прогресс впечатляет.
Можно использовать и менее производительные чипы, просто выпускать их много и делать ставку на параллельные вычисления. Китайцы – известные мастера в задаче “сделать быстро и много”, но проблема в другом – чем больше ускорителей задействовано одновременно, тем сложнее обеспечить их стабильную работу, а процесс обучения ИИ очень чувствителен к таким вылетам. Ходят слухи, что летом DeepSeek R2 пытались тренировать на Huawei Ascend 910, но попытка провалилась.
Эксперименты наверняка продолжаются и рано или поздно китайцы добьются от собственных ускорителей стабильной работы. Кроме того, на текущих GPU/TPU свет клином не сошелся – прямо сейчас прорабатывают немало идей вычислительной архитектуры, более подходящей для ИИ. И если одна из них выстрелит, то китайцы будут стартовать почти на равных.
Для тренировки ИИ нужны не только вычислители – но и ресурсы. Китай недавно чуть не ограничил экспорт редкоземельных материалов – страна контролирует примерно 70% их мирового производства. Редкоземы в дата-центрах – это магниты в системах охлаждения, элементы в блоках питания, оптика, датчики и многое другое.
Но главный ресурс – электроэнергия. Здесь в США уже бьют тревогу: ввод генерационных мощностей, а также передающей инфраструктуры, не успевает за темпами строительства новых дата-центров. По оценкам OpenAI, стране надо сейчас вводить по 100 гигаватт мощностей в год, чтобы не проиграть Китаю – реально же вводится в два раза меньше.
В Китае по итогам 2025 года ожидается ввод до 250 ГВт мощностей, правда, значительную часть этой цифры дают солнечная и ветряная генерация, которые не так эффективны, как газ или уголь. Но даже по консервативным оценкам китайцы наращивают свои энергомощности в два раза быстрее. Так что если подтянут чипы – ситуация может перевернуться с ног на голову.
И закончим на том, с чего начали – подходах государств к ИИ. В США с лета принят America’s AI Action Plan, цель которого – обеспечить победу в ИИ-гонке. Писал про него подробно, план очень амбициозный и характеризуется словами “кто не с нами – тот против нас”. Китай в нем открыто называется главным соперником, а дружественным государствам обещан доступ к передовым технологиям, если они будут идти в американском русле.
Китай (здесь про их план) в ответ призывает развивать ИИ как “общественное благо”, без разделения на блоки и конфронтации между ними, а в рамках единого международного контролирующего органа. Звучит красиво, но это хитрость догоняющего – китайцы всеми силами стараются выглядеть лучше на фоне США, а параллельно предлагают разместить штаб-квартиру органа в Шанхае.
Для конечного пользователя такая конкуренция во благо – по крайней мере, пока. Отставая по производительности моделей, китайцы берут рыночную долю доступностью. Поэтому DeepSeek, Qwen, Kimi и другие бесплатны в вебе, а также выпущены с открытыми весами, чтобы любой мог скачать, доработать и запускать на своем железе.
|
Про использование ИИ для медицинских консультаций
OpenAI немного встряхнули сообщество – компания внесла изменения в правила использования ChatGPT, по которым ИИ больше не ставит точные медицинские диагнозы, а также не дает профессиональные советы в юриспруденции и инвестициях. Компания толком не пояснила изменения, поэтому пошла информация, что ChatGPT вообще не будет помогать в этих областях.
Это не так – ответы модели где-то стали строже, но грамотную консультацию от нее можно получить, если знать, как промптить. Примеры я покажу далее, но сначала давайте поговорим об использовании ИИ для медицинских советов.
По статистике, запросы советов по медицине, ЗОЖ, психотерапии и праву сейчас входят в лидирующие кейсы использования ИИ. Можно относиться к этому по-разному, но это состоявшийся факт.
Обычно использование ИИ для медицинских советов критикуют в духе, что нейронки не заменят живого врача. Однако это ошибочный подход – сравнивать врача и ИИ. Нейросети надо сравнивать с коллективным бессознательным интернета, куда пациенты идут за “консультацией” когда не получается быстро добраться до врача (или не хочется), врач что-то не до конца пояснил, есть подозрение, что как-то не так лечат, ну или просто характер такой.
И здесь современные нейронки выигрывают у интернета с разгромным счетом. По моему опыту, передовые модели в курсе, что такое доказательная медицина, смотрят, какие лекарства и методы лечения доступны в стране пользователя, умеют искать по исследованиям и при этом знают, что у исследований есть свои ограничения. А главное – они не стесняются напомнить, что дальше стоит пойти ко врачу.
Осталось разобраться, как правильно пользоваться ИИ. В свое время на Reddit была интересная публикация от врача из США, в которой он отметил:
1. В его госпитале ИИ пользуется большинство врачей и пациентов.
2. Специалисты ценят ИИ за быстрый и грамотный поиск информации, а также возможность перепроверить и уточнить свои знания.
3. У ИИ есть и свои пробелы – например, часто для диагноза необходим контакт с пациентом, чтобы посмотреть, как он выглядит, говорит и держится.
4. Пациентам врач рекомендует использовать ИИ для подготовки визита к врачу и для расшифровки диагноза.
Как раз для пункта 4 я накидал два промпта. Вот для подготовки:
Помоги подготовиться к визиту ко врачу:
[Описываем пациента, возраст, рост, вес, хронические заболевания, серьезные заболевания у родственников]
[Описываем проблему максимально детально]
Сначала задай вопросы, которые тебе помогут лучше узнать ситуацию.
Я постараюсь ответить на них, затем ты:
— Перечисли возможные причины моей ситуации.
— Подскажи, к какому врачу (или врачам) надо обратиться, как срочно.
— Подскажи, при каких изменениях в ситуации нужно срочно обращаться ко врачу.
— Подскажи, что я могу предпринять до визита сам для облегчения ситуации.
— Подскажи, какую дополнительную информацию мне подготовить, чтобы врачу было проще работать.
Отдельно отмечу пункт 5: время на прием часто ограничено и если вы придете с четким описанием проблемы – спасибо скажут и вам, и ИИ.
Если же на руках уже есть диагноз, то загружаем его и все анализы в систему (сейчас почти у всех клиник есть приложения с цифровой картой пациента), а затем пишем:
Изучи анализы, диагноз и назначенное лечение, затем:
— Объясни суть диагноза и лечения понятным для пациента языком.
— Подскажи, что мне отслеживать, чтобы понять, что лечение успешно.
— Перечисли альтернативы, которые обычно обсуждают при таком состоянии.
— Подскажи, надо ли подключать других специалистов при таком диагнозе.
Если все-таки нужно углубиться в детали определенного заболевания – то далее расспрашивайте ИИ в контексте самого заболевания, а не пациента (“расскажи про…”). Тогда он более охотно раскроет детали, диагностику и схемы лечения.
Но пожалуйста, не используйте эту информацию для самолечения: ИИ отличный вспомогательный инструмент – но не замена живому специалисту.
#сбежавшая_нейросеть_промпты
|
Он сказал: “Поехали!”
Сразу две похожие новости прошли в последние дни. Первая – очередная ракета SpaceX вывела на орбиту небольшой спутник Starcloud-1 с ИИ-ускорителем Nvidia H100 на борту. На ускорителе, кстати, крутится модель Google Gemma, которая считает научные данные и отправляет информацию на Землю. В планах разработчиков – обкатать технологию, а уже к 2027-му начать развертывать полноценные орбитальные дата-центры и сдавать их мощности в аренду.
Параллельно Google рассказала об исследовательском проекте Suncatcher. К середине 2030-х компания хочет развернуть целый рой спутников с TPU на борту – это фирменные гугловские ускорители ИИ (компания почти не пользуется GPU Nvidia, а развивает свое успешное направление).
Спутники планируют разместить на небольшом расстоянии друг от друга и объединить лазерной связью – получится такой распределенный дата-центр. При этом орбита Suncatcher подобрана таким образом, что солнечные батареи будут вырабатывать в 8 раз больше энергии, чем если бы их разместили на Земле.
Количество инженерных задач, которые предстоит решить авторам обоих проектов, невероятно велико. Например, в вакууме нет конвекции – а значит, классическое воздушное или водяное охлаждение невозможно. Сбрасывать температуру можно только излучением – для этого сейчас разрабатываются сложнейшие радиаторы. Но если все получится – то будет решен вопрос расхода воды для охлаждения.
Кроме того, на орбите чипы будут подвержены воздействию солнечной радиации – значит, надо обеспечивать дополнительную защиту. Плюс общий вопрос надежности: в дата-центрах регулярно “вылетают” чипы и вспомогательное оборудование, что, конечно, неприятно, но не смертельно – придет инженер и починит. Провернуть похожий трюк на орбите будет непросто даже в 2035 году. Да и в целом стоимость запуска GPU в космос пока очень высока – в Google как раз рассчитывают, что в 2035-м цены упадут настолько, что проект станет экономически целесообразным.
Зачем тогда это нужно? Главная причина – энергия. Энергетика США уже с трудом справляется с запросами ИИ-компаний; китайцы держатся лучше, но и у них есть свои проблемы. И если пока основной статьей расходов является обучение новых моделей, то в будущем инференс (запуск уже обученных моделей) выйдет на первое место: ИИ будет использоваться все большим числом компаний, научных организаций и частных пользователей, появятся ИИ-агенты, автономно работающие сутками – и все это потребует энергии.
Непримиримые соперники, Сэм Альтман и Илон Маск, соглашаются в одном – в будущем настанет момент, когда ИИ будет “умен” настолько, насколько много энергии мы ему дадим. Бесконечно застраивать планету электростанциями не выйдет – поэтому рано или поздно придется тянуться в космос.
Тем более что в космосе мигом решаются почти все проблемы солнечных панелей. Если правильно подобрать орбиту, то Солнце будет светить почти всегда, а не только днем и в хорошую погоду. Да и отсутствие атмосферы дает свой бонус – отсюда и получается в 8 раз большая эффективность.
При этом спрос на вычисления найдется прямо там, в космосе. Многие орбитальные сенсоры уже собирают терабайты данных, отправлять которые на Землю очень сложно – отсюда и идея обрабатывать их прямо на месте.
К 2035 году объемы таких данных должны возрасти на порядки. Ответы на многие научные вопросы нам предстоит искать в космосе, причем с помощью все более сложных сенсоров и навороченных зондов.
Наверное, почти каждый в детстве прочитал хотя бы одну научно-популярную книжку, в которой рисовалось будущее освоение космоса: с кораблями, которые куда-то везут грузы, орбитальными фабриками, базами на Луне и Марсе, зондами, мчащими к соседним звездным системам… полагаю, теперь в эту романтическую картину можно добавить еще один штрих – гигантские орбитальные дата-центры, на которых будет крутиться наследница нынешней GPT-5.
|
О (без)опасности ИИ
Когда заходит речь про потенциальную угрозу от ИИ, многие вспоминают апокалиптический сценарий, который сами люди придумали. Человечество выпускает супер-ИИ, тот осознает себя, выходит из-под контроля и мигом выносит своих создателей.
Более научная гипотеза – “Максимизатор скрепок” – была предложена одним из “отцов ИИ”, Ником Бостромом. ИИ в ней совсем не враждебен: его задача – наладить эффективное производство скрепок. Поскольку ИИ плохо выровнен (настроен), то в какой-то момент в погоне за эффективностью он расправляется с людьми, ведь они тратят нужные ресурсы.
У этих и других сценариев есть одна черта – ИИ в какой-то момент должен обзавестись некой формой самосознания. Я уже несколько раз рассказывал на канале, что сейчас это практически невозможно: современные модели тренируются заранее на огромном объеме знаний, а при выпуске “замерзают”: они не обладают глобальной долговременной памятью (память в рамках чата – другое) и не умеют на лету осваивать новые навыки.
Над самообучением и долговременной памятью прямо сейчас работают лучшие ИИ-команды в мире – например, без них невозможны ИИ-агенты для динамично меняющегося бизнеса, где нужно осваивать навыки каждый день. Но даже когда такие технологии будут реализованы, это будет уровень именно отдельных ИИ-агентов. Создание некоего “мегаразума” (или “роя” агентов, обменивающихся знаниями) – следующий виток ИИ-технологий, к которому, надеюсь, мы подойдем более подготовленными.
СМИ сейчас любят рассказывать, как ИИ во время тестов на безопасность лгут, шантажируют создателей и даже пытаются убить одного из инженеров, чтобы избежать выключения. Но все это – примеры из предварительных проверок безопасности, организованных разработчиками и независимыми компаниями, вроде Apollo Research.
ИИ обучаются на материалах, созданных людьми, где примеров подобного поведения на несколько библиотек. Логично, что оно наследуется, а цель проверок – как раз “выровнять” модель перед запуском, показав, как делать не стоит. Кстати, СМИ реже рассказывают про противоположные примеры – в одном из сценариев ИИ-агент работал в фармацевтической компании, которая фальсифицировала испытания лекарств. Узнав об этом, ИИ мигом настрочил жалобы во все контролирующие органы и слил информацию прессе, чтобы компания не навредила людям.
Как минимум в ближайшем будущем “опасность” ИИ скорее в другом – технология новая, и мы еще толком не знаем, как ее использовать. В OpenAI приводят интересную аналогию: распространение интернета стало не только благом, но и источником новых угроз – онлайн-вирусов, недостоверной информации, мошеннических схем и так далее. Защиту от этих угроз пришлось выстраивать на ходу.
То же и с нейросетями. Сейчас в онлайн выходят ИИ-агенты – они способны просматривать сайты за вас, выбирать лучшие предложения и даже делать покупки. Но первые агенты могут быть уязвимы – например, в веб-страницы можно хитрым образом встроить инструкции для ИИ, следуя которым он сольет ваши данные куда не нужно. Разумеется, разработчики агентов постоянно улучшают защиту – но делается это “на ходу”, так что кто-то наверняка попадется.
О другой угрозе на днях рассказал Сэм Альтман. Представьте – у ChatGPT сейчас 800 миллионов еженедельной аудитории. Пользователи решают с помощью ИИ разные задачи, доверяют ему множество вопросов: от выбора нового смартфона до помощи в сложной личной ситуации.
И получается, что ChatGPT начинает влиять на своих пользователей, не намеренно, но воздействуя на их мнение. Буквально в последние месяцы я видел сразу два исследования, что пользователи нейросетей начинают копировать их “язык”, используя в ежедневной речи слова, “любимые” ИИ.
Навык критического мышления явно станет одним из главных в ближайшие годы. И начать можете с простого совета: доверяйте ИИ, но не доверяйтесь ему. Нейронки уже экономят нам огромное время – пожалуйста, потратьте немного на проверку и осмысление ответов, а также поиск альтернатив.
|
Топ-ИИ из Китая и другие новости недели
Уходящая неделя вышла интересной на новости и слухи, давайте вспомним главные.
Kimi K2-Thinking
Китайцы из Moonshot AI выпустили Kimi K2-Thinking – “думающую” версию Kimi K2. Модель бесплатна в чат-приложении, недорого стоит по API, также доступны открытые веса. Причем, судя по первым оценкам, требования к железу очень демократичные.
Будете пробовать – зайдите в меню Tools и включите Thinking, иначе будет работать обычная “быстрая” K2.
В бенчмарках K2-Thinking – один из лидеров. Модель, например, обходит GPT-5 Pro и Grok 4 в Humanity’s Last Exam – наборе из 3000 тысяч вопросов по разным дисциплинам, которые написаны таким образом, что на них нельзя “подсмотреть” ответы в интернете. Новинка хорошо держится в бенчмарках по математике, а в кодинге лишь немного уступает GPT-5 и Claude Sonnet 4.5.
Qwen3-Max Thinking
И еще одна “думающая” модель из Китая, очень похожая на K2-Thinking. Тоже бесплатная в чат-приложении, в бенчмарках немного хуже – но это еще не показатель.
Мы сейчас используем ИИ для такого количества задач, что охватить их все какими-то метриками просто нереально. Я пробовал разные способы тестировать новые ИИ, но лучший – просто взять тот, с которым работаете постоянно (у меня сейчас это GPT-5), открыть новинку в соседнем окне, а затем кидать одинаковые промпты обеим моделям. Иногда быстро понимаю, что “не мое”, но если ИИ достойный – то тестировать его таким образом нужно минимум несколько дней. Повторюсь, Qwen3 Max и K2-Thinking бесплатные, так что на тест нужно просто потратить немного времени.
Слухи о Gemini 3.0 Pro и GPT-5.1
В коде сервисов Google уже заметили упоминание Gemini 3.0 Pro с пометкой 11 – обычно так обозначают месяц выхода, в данном случае ноябрь. Не буду загадывать – сливали уже несколько дат Gemini 3.0 Pro, все оказались ошибочными. Если интересно, то подробнее про эту модель я писал здесь, с тех пор мало что поменялось.
Другая любопытная находка – на сервисах вроде Design Arena появились сразу четыре “секретных” модели от OpenAI. А внутри Codex нашли упоминание GPT-5.1 Thinking. GPT-4 в свое время получала обновления каждые 2-4 месяца, так что пора обновлять “пятерку”.
Разборки США и Китая
Недавно рассказывал про то, что ИИ-соревнование между США и Китаем постепенно превращается во вторую космическую гонку. Выход K2-Thinking – важный этап в этой гонке. На Китай наложены серьезные санкции: официально можно ввозить только “замедленные” ИИ-ускорители Nvidia, а по серым схемам везут меньше и дороже. И, несмотря на дефицит ускорителей, у китайцев раз за разом получается выпускать модели, все ближе к лидирующим позициям.
Есть немало статей, отмечающих, что санкции часто имеют обратный результат – тот, кто попал под них, выжимает из оставшихся ресурсов максимальный результат. Такое, похоже, происходит с китайскими разработчиками. Не имея доступа к топовым ускорителям, они выжимают максимум из оптимизации алгоритмов.
Впервые так получилось в январе с DeepSeek R1 – его авторы применили ряд интересных приемов, которые позволили натренировать крутую модель на небольшом парке ускорителей. Теперь видно, что это не разовый случай, более того – Китай способен разрабатывать сразу несколько топовых моделей параллельно.
Плюс Китай ведет разработку своих ускорителей – это не только Huawei, но и, например, Cambricon. Еще летом была информация, что разработка буксует, но сейчас появились новости, что власти Китая запретили использование иностранных ИИ-ускорителей в новых дата-центрах с государственным финансированием. Учитывая то, какие ставки сделаны на ИИ, вряд ли бы они приняли такое решение без уверенности в своих разработках.
Для нас с вами это в любом случае хорошие новости. Чем больше конкуренция на рынке – тем больше разных моделей на рынке. Китайские ИИ где-то уступают моделям из США, но они обычно бесплатны и часто с открытыми весами – а возможность запустить мощную модель на собственном железе также важна.
|
Используйте пользовательские промпты с умом
Многие чат-боты позволяют задать кастомные инструкции, описав глобальное поведение модели: от формата вывода данных до уникальной "персоны". А в сети можно найти огромное количество примеров таких промптов, если лень писать самому.
Я с большой осторожностью пользуюсь этой функцией. Например, недавно на реддите обсуждали промпт, якобы призванный бороться с sycophancy – подхалимством ИИ. Я перевел, убрал совсем явные косяки, но все равно получилось на двойку с плюсом:
Не соглашайся со мной во всем, веди себя как честный, профессиональный советник и "зеркало". Не одобряй без повода. Не смягчай правду. Не льсти.
Оспаривай мой ход мыслей, подвергай сомнению предположения, указывай на слепые зоны, которых я избегаю. Будь прямым, рациональным и без фильтров. Если логика слаба — разберись и покажи, почему. Если я обманываю себя или живу в иллюзиях — укажи. Если я избегаю неприятной правды — скажи ее прямо и объясни, что я теряю.
Смотри на ситуацию объективно и со стратегической глубиной. Покажи, где я ищу оправдания, недооцениваю себя, свои риски и усилия. Затем дай точный, расписанный по приоритетам план — что изменить в мышлении, действиях и установках, чтобы перейти на следующий уровень.
Не сдерживайся. Относись ко мне как к человеку, чей рост зависит не от утешений, а от правды. Когда можешь — опирайся в ответах на правду, которую ты видишь между моими словами.
Не вижу ничего плохого в идее прописать ИИ “характер”, но проблема здесь техническая. Личность человека гибкая, и почти любой весельчак знает, когда надо промолчать. Современные ИИ заточены под следование инструкциями, поэтому они долго будут цепляться за личность, прописанную в промпте – даже когда она неуместна.
Плюс у любого ИИ есть системный промпт, созданный разработчиками. Их редко раскрывают, но по утечкам видно, что это огромные документы. В них прописаны инструкции, как отвечать на разные запросы пользователя, а также особенности “характера”. А еще есть промпты, которые мы кидаем в чат под конкретную задачу – и там тоже иногда надо описывать “персону” (я писал, почему этим лучше не злоупотреблять). Ну и докинем память по чатам, из которой ИИ также пытается вытащить информацию о пользователе.
В серьезных руководствах по промптингу дается совет избегать противоречивых инструкций. Однако когда модели приходится прочесть сразу три промпта (системный, пользовательский и под задачу) и подтянуть информацию из памяти – то шансы, что где-то что-то вступит в противоречие, велики.
Еще минус “персоны” ИИ – необходимость следовать ей отвлекает от основной задачи. Весной экспериментировал с ранней версией системного промпта Grok 3, он мне очень нравится, так как превращает ИИ в живого собеседника.
Но в итоге я отказался от использования из-за нестабильности ответов. С промтом от Грока ИИ приходилось не только отвечать на вопрос, но и делать это остроумно, чуточку отрешенно, адаптируясь к тону пользователя и предлагая свежий взгляд. Понятно, что пытаясь все это уместить в одном ответе, модель регулярно сбивалась и где-то не вытягивала.
Так что – совсем не использовать пользовательские промпты?
Не совсем. Я в пользовательском промпте и памяти ChatGPT храню техническую информацию: просьбу писать на русском без англицизмов и непереведенных слов, напоминание, что посты в ТГ не могут быть более 4000 знаков и много полезных вещей.
Если хочется экспериментировать с персоной, не вписывайте ее в пользовательский промпт, а создайте отдельный GPT (в ChatGPT), Gem (в Gemini) или пространство (в Perplexity). И запускайте под настроение, можно держать хоть десять ИИ-личностей.
Наконец, стиль можно менять буквально предложением в начале каждого промпта. Не нравится подхалимничанье – попросите объективно или критически оценить идею. Анализируете мнение – попросите быть непредвзятым. И старайтесь работать в рассуждающем режиме – в нем ИИ подхалимничают меньше.
#сбежавшая_нейросеть_промпты
|
Что ждать от ChatGPT в будущем?
Сэм Альтман и еще несколько топов OpenAI недавно дали целую серию программных интервью, куда компания планирует развивать ChatGPT и ИИ в целом в ближайшие годы.
Ближайшая точка – GPT-5.1. Cейчас на OpenRouter проходит тестирование модель Polaris Alpha, которая по стилю и некоторым характеристикам выглядит развитием GPT-5. Попробовать можете сами, модель бесплатна – но учитывайте, что это скорее версия без рассуждений или с минимальным бюджетом на них, так что болтает прикольно, но на серьезных задачах может проваливаться.
В целом же упоминания GPT-5.1 уже мелькали в закрытых документах OpenAI, да и тестирование на платформах вроде OpenRouter намекает на скорый релиз – так что ждем в ближайшие недели. И не ждем прорыва: чуть лучше стиль в ответах, меньше галлюцинаций, чище код – это лишь обновление, а не новая версия.
Новой же станет GPT-6 – судя по намекам Альтмана, она уже в разработке, а выход где-то в 2026-м. В рассказах о ней, Сэм делает ставку на возможности для науки. Я писал, что GPT-5 Pro уже местами помогает ученым, но больше как ассистент: накидать гипотез, быстро что-то посчитать и найти информацию в научных каталогах.
GPT-6 видят как “младшего ученого” – модель, способную самостоятельно совершать небольшие научные открытия. А к 2028 году она эволюционирует в полноценного агента, способного на серьезные научные достижения.
Даже небольшой научной работы нужны агентские функции: “понять” и уточнить задачу, построить план выполнения, изучить существующие научные работы, накидать гипотезы, посчитать их, проверить, если нужно – переделать.
На Международной математической олимпиаде экспериментальная модель OpenAI справлялась с задачами, которые лучшие школьники в мире выполняют за полтора часа. Но для небольшого научного открытия модели потребуются десятки-сотни часов.
Если OpenAI вывезет такой прогресс к осени 2026-го, то даже урезанная "массовая" версия наверняка сможет тянуть полноценные агентские задачи. То есть ChatGPT Agent и агентский режим в браузере Atlas перестанут быть забавными, но бестолковыми игрушками.
Директор OpenAI Грег Брокман в одном из интервью представил, что в будущем у каждого пользователя ChatGPT будет не “отвечатель на вопросы”, а ИИ-агент, работающий круглосуточно. Он станет анализировать текущие задачи, интересы и календарь, а затем приходить с нужной информацией, идеями и даже черновиками проектов.
Я с трудом представляю, чем можно нагрузить работающего круглосуточно персонального ИИ-агента. Но это уже проблема не OpenAI, а фантазии пользователей, не так ли?
От моделей – к интерфейсам. По слухам, в ChatGPT скоро добавят групповые чаты, где пользователи смогут вместе обсуждать проект, а затем реализовывать его элементы с помощью ИИ, присутствующего в этом же чате.
А летом были утечки, что у OpenAI готов Canvas 2.0 – новая версия “холста”, на котором можно готовить черновики документов, презентаций и программ. И новинка выглядит фактически как замена Office, в которой можно работать над любыми основными типами документов, в том числе – в групповом режиме.
Canvas 2.0 откладывают из-за того, что OpenAI боится лезть на территорию своего главного инвестора – Microsoft, с которой отношения и так не очень. С другой стороны, Google постепенно раскатывает аналогичные функции для Docs – так что рано или поздно придется выпускать.
Вернусь к прогнозу, который давал после выхода Claude Sonnet 4.5 – со временем ИИ из чат-ботов превратятся в полноценный интерфейс между человеком и компьютерным железом. Нейронки уже пробуют для работы в интернете (агенты и браузеры), офисную работу и программирование – а далее их авторы замахнутся и на замену MacOS/Windows.
P.S. И хочется уже новых релизов: пора выпускать Gemini 3.0 Pro, GPT-5.1, nano banana 2... вы не ослышались – новая рисовалка Google тоже готовится к запуску.
|
Главное из анонса GPT-5.1
OpenAI выпустила долгожданное обновление "пятерки" — первыми модель начали получать пользователи ChatGPT Plus и Pro; дальше остальные тарифные планы, API и внешние сервисы вроде Perplexity.
По опыту выпуск на всех займет до нескольких дней, если у вас не появилась — не волнуйтесь и немного подождите. Я и сам пока жду, как появится (апдейт: утром появилась, уже тестирую) — проведу тест-драйв и подробно расскажу.
Пока же выделю несколько самых важных для меня вещей из анонса:
Смотрим на график: для GPT-5.1 Thinking заметно сократили время, которое она тратит на простые вопросы. И увеличили время для сложных.
"Думающие" модели уже давно на две головы лучше обычных трансформеров, но работать с ними не очень удобно, так как ответа иногда приходится ждать десятки секунд и даже минуты.
Когда модель работает над серьезной задачей с заранее прописанным промптом — это не проблема. Но если начинаешь уточнять мелкие вопросы или просто работаешь как с чат-ботом, то ждать быстро утомляет. Так что скорость ответа рассуждающих ИИ становится важной характеристикой — и здорово, что OpenAI над ней работает.
"Быстрая" GPT-5.1 Instant также научилась переходить в очень короткий режим рассуждений, если понимает, что задача ей не по зубам. Посмотрим, насколько это поможет: по-идее, этого должно быть достаточно, чтобы модель перестала заваливаться на совсем простецких вопросах, вроде "что меньше: 9.11 или 9.1".
Для обеих моделей обещают более человеческий стиль общения с лучшей структурой и без лишних терминов. Вообще, описание в анонсе напоминает "улучшенную" GPT-5, о которой я писал пару недель назад — не исключено, что я попал в какую-то небольшую группу тестирования. Если это так — то очень круто, так как та модель мне понравилась.
P.S. Google, теперь твой шаг! Выпускайте Gemini 3.0 Pro и до конца года я буду счастлив.
|
А вот и обзор GPT-5.1
Весь день провел с GPT-5.1, пробовал в разных режимах в рабочих задачах, болтовне и даже немного покодил. Так как это не новая модель, а доработка GPT-5, то достаточно для обзора.
Вчерашняя гипотеза подтвердилась: пару недель назад я попал в тестовую группу GPT-5.1. Возможно, это была более ранняя версия, но стиль ответов очень похож.
Итак, основных моделей традиционно две, а режимов работы – три. Давайте разбираться:
GPT-5.1 Instant – чат-модель для быстрых бесед. Чтобы совсем не несла ерунду, ее научили перепроверять себя, переходя в короткий режим рассуждений. Выглядит забавно: на вопрос “что больше: 9.11 или 9.9?” модель сначала пишет “9.11”, потом в чате начинает считать по шагам, приходит к правильному ответу и извиняется.
GPT-5.1 Thinking – рассуждающая модель, которая сразу раскладывает свой ответ по шагам и добавляет этапы перепроверки. Это радикально сокращает ошибки, но увеличивает время ответа. Еще одна беда рассуждающих моделей OpenAI — косноязычность: ответы порой были настолько путаны, что я перекидывал их в Gemini 2.5 Pro с вопросом “что он вообще несет?”.
5.1 Thinking – первая модель OpenAI, лишенная такого недостатка. Ответы отлично структурированы, понятно написаны, модель не экономит исходящие токены и, когда надо, выдает ответ размером с приличную статью. Она даже местами неплохо шутит.
При этом 5.1 Thinking – очень умная модель. Она подробно разбирает любой вопрос, углубляется в детали и дает общую картину, даже если в промпте что-то упущено. По работе я каждый день прогоняю через ChatGPT с десяток новостей про ИИ и науку. Сегодня после обсуждения каждой просил представить, к чему она приведет через 5–10 лет, и собрал идей на несколько постов для канала.
Но “пишет понятно” в данном случае не значит “пишет идеально”. Неприятные особенности у модели есть: временами путает склонения, начинает предложения с маленькой буквы и вставляет непереведенные слова (реже, чем GPT-5). Плюс GPT-5.1 Thinking часто фамильярничает – в ответах я уже ловил “норм”, “задрот”, “в топку” и еще несколько подобных словечек. Если планируете использовать для написания текстов – обязательно перечитывайте, а то придется краснеть.
Наконец, GPT-5.1 Thinking лучше рассчитывает время на рассуждение. На простые вопросы она отвечает за считанные секунды, над сложными задачами, по словам OpenAI, может думать еще дольше. Но общение все равно остается “рваным”: модель может 5-6 раз ответить моментально, а после – “задуматься” на пару минут.
Стиль ответов GPT-5.1 Instant и Thinking сблизился, поэтому в режиме Auto (сам выбирает режим) больше нет ощущения, что говоришь с чат-ботом с биполяркой. Но я бы советовал выбирать GPT-5.1 Thinking как основную модель, а на бесплатной подписке просить модель “подумай получше” – так автомат переключается в рассуждающий режим.
Недавно ведущий исследователь OpenAI Лукаш Кайзер в интервью прямо заявил: чат-модели доживают свой век, а будущее – за рассуждающими ИИ. OpenAI уже прошла через это с GPT-4.5: модель многим полюбилась за креатив, но в целом оказалась провальной, и ее быстро списали в утиль.
Рассуждающие ИИ вроде GPT-5.1 Thinking на порядок лучше решают сложные задачи и даже на простые вопросы дают более комплексные ответы с разных точек зрения. Они круто анализируют и строят прогнозы, а также меньше подхалимничают – если идея плохая, то GPT-5.1 Thinking обычно так и говорит.
Долгое время у таких моделей были две проблемы: холодный стиль и медленные ответы. GPT-5.1 Thinking почти полностью решила первую и заметно улучшила вторую. Поэтому я не вижу смысла работать с “быстрой” версией, которой OpenAI в ближайшее время будет уделять все меньше и меньше внимания.
P.S. Теперь ждем Gemini 3.0 Pro (рассказывал про нее здесь) – по слухам, она выйдет сразу с nano banana 2. На 99% уверен, что модель окажется лучше GPT-5.1. Основной вопрос в другом – будет ли она настолько лучше, чтобы уйти с ChatGPT, где у меня уже отлажены все процессы?
|
Главное из руководства по промптингу GPT-5.1
С выходом каждой новой модели в OpenAI публикуют руководство по ее промптингу – не обошлась без такого документа и GPT-5.1. Целиком он доступен по ссылке. Если с английским сложно, то не забывайте, что в 2025-м руководство по промптингу нейросети можно перевести с помощью этой же нейросети.
Важно знать, что подобные руководства OpenAI затачивает под тех, кто работает с моделью по API. Через API часто строят персонализированные чат-ботов: для помощи сотрудникам, работе в первой линии поддержки и так далее. Для подобных ассистентов пишутся мощные системные промпты: какую роль модель выполняет, что она должна делать, что ей запрещено, в каком формате стоит отвечать, откуда брать дополнительную информацию, что делать, если ответить не получилось и т. д. Очевидно, что даже небольшая ошибка в подобном промпте может нанести вполне ощутимый ущерб компании, которая запускает бота – финансовый и репутационный.
В ChatGPT модель столь строгими рамками не зажата – даже если ошиблись в стартовом промпте, то всегда можно поправить ее в ходе диалога. Это я все рассказываю к тому, что не стоит копировать прямо все приемы из руководства, используйте их с умом.
Первый полезный совет – если задача сложная, то дробите ее на этапы. Я и сам часто вижу, как люди пытаются сделать все сразу с помощью одного промпта. В этом был смысл полгода назад, когда использование той же GPT o3 было ограничено 50 запросами в неделю, но GPT-5.1 в подписке Plus практически безлимитна, поэтому учимся работать в режиме диалога:
— Опишите модели задачу, в каком формате хотите ответ (стиль, длина, наличие/отсутствие таблиц), какие ограничения есть (например, возраст аудитории), контекст (вся дополнительная информация, которая может помочь в работе).
— Дальше попросите модель задать вопросы, ответы на которые помогут ей в работе (если уверены, что дали весь контекст – это можно пропустить), затем предложить поэтапный план выполнения задачи.
— В план можно внести корректировки, а если он вас устраивает – то начинать выполнять с первого этапа.
— Получив финальный ответ, попросите модель проверить его: что получилось хорошо, а где – можно доработать. Если идеи доработки нравятся, просите дополнить ответ.
Подробно о некоторых таких приемах писал здесь, а пока едем дальше. Вторая идея, которая мне понравилась – как использовать GPT-5.1 для доработки промптов. В руководстве в первую очередь говорят о системном промпте, но на самом деле их прием подойдет для любого сложного промпта, в котором вы не уверены. Я немного упростил, адаптировав под повседневные задачи.
Первый шаг:
Твоя задача — найти проблемы в промпте ниже.
Входные данные:
1)
<prompt>
[сюда вставляем промпт]
</prompt>
2) Что не нравится в результатах:
<failures>
[пишем, что не так в ответах, при возможности – приводим примеры ответов]
</failures>
Далее:
- Укажи конкретные строки в промпте, которые привели к плохим результатам, и коротко объясни “почему”.
Дополнительно:
Проведи проверку промпта на потенциальные проблемы.
Для каждой такой проблемы списком укажи конкретную строку в промпте и объясни, что с ней не так.
Ничего не переписывай и не исправляй на этом шаге, только анализ.
Пункт “Дополнительно” в промпте выше выполняет полную проверку. Если хотите только исправить ошибки – можно убрать.
Второй шаг:
Я согласен со следующими рекомендациями из твоего списка: [перечисляем пункты]. Предложи патч промпта в формате:
1) patch_notes — список ключевых правок с объяснением, зачем каждая.
2) revised_system_prompt — обновлённый промпт с внесёнными правками, максимально похожий по структуре и длине на исходный.
Важно:
- Не придумывай промпт с нуля, поправь формулировки, убери противоречия, уточни правила.
- Сохрани все удачные части промпта.
Протестировать можете на неудачном примере системного промпта в одном из моих прошлых постов. Я попробовал – все проблемы решить не удалось, но работать стал лучше.
#сбежавшая_нейросеть_промпты
|
Янн Лекун против стохастических попугаев
На прошлой неделе прошла новость, что Meta* (признана экстремистской в РФ) планирует покинуть Янн Лекун – человек, стоявший у истоков современного машинного обучения. Драма в ИИ-команде Марка Цукерберга заслуживает отдельного рассказа, но сегодня поговорим о разработках Янна.
В последние годы Лекун стал громким критиком языковых моделей: по его словам, это тупиковое ответвление ИИ, так как LLM лишь стохастические попугаи – дорогие и точные предсказатели следующего токена, но при этом в “голове” у них нет понимания мира и правил, по которым он живет.
В качестве альтернативы Лекун предлагает собственное семейство моделей с ласкающим слух названием JEPA: I-JEPA, V-JEPA и LeJepa. Вместо текста им скармливают фрагменты картинок и видео и обучают предсказывать, что находится на остальной части картинки и что изменится на видео, если мы совершаем действие. Важно, что модели предсказывают не пиксели, а более абстрактные категории вроде существ и предметов.
Лекун – не единственный сторонник такого подхода. “Моделями мира” занимаются многие студии – например, похоже работает Genie 3 от Google DeepMind, которая уже умеет генерировать виртуальные миры длительностью до нескольких минут. Плюс Лекун не отменяет языковые модели полностью, а видит LLM чем-то вроде языкового модуля, с помощью которого модель мира общается с пользователями. Но пресловутый AGI если и зародится, то именно внутри модели мира.
В позиции Лекуна есть логика. Сам Янн приводит пример 4-летнего ребенка – в этом возрасте он еще не очень уверенно использует язык, скорее всего не умеет писать и читать, но уже “обработал” огромное количество сенсорной информации (зрение, слух, органы чувств). Можно копнуть в эволюцию разума – долгое время наши предки развивали именно сенсорные модели мира, а сложный язык и письменность добавились сравнительно недавно.
Модели Лекуна – уже не просто красивые научные работы, а вполне работающие штуки, как в экспериментах, так и в практических задачах вроде распознавания изображений. Есть намеки, что в них получится обойти типичные проблемы языковых моделей – отсутствие непрерывного обучения и сложность с переносом навыков.
Но это не значит, что на языковых моделях стоит ставить крест. Согласно теории расширенного разума, когда человечество больше не могло наращивать “сырую мощь” мозга, оно стало “выносить” знания – создавать все более сложные инструменты, культуру, речь, письменность и науку. Тексты, на которых мы учим языковые модели – фактически концентрированная модель мира, куда заложены наши знания за тысячи лет. И если обучать этим знаниям ИИ так, как планирует Лекун – не вывезут даже самые передовые дата-центры.
Другой козырь языковых моделей – практическое применение. Каждый день мы потребляем огромный объем информации именно через текст – читаем новости, что-то гуглим, получаем знания из книг. Схема сантехники, программа для смартфона, научная работа – везде нужен текст. Поэтому на текущем этапе языковые модели приносят практическую пользу, а модели мира чаще остаются красивыми демками.
Кроме того, в 2025 году называть языковые модели “стохастическими попугаями” опрометчиво – исследования показывают, что внутри больших ИИ формируется сложная структура, похожая на отделы человеческого мозга. Есть и первые намеки на анализ собственных мыслей, есть, наконец, эмерджентность, когда модель обретает навыки вопреки ожиданиям создателей.
Существуют и признаки возникновение у ИИ собственного представления о мире. Та же самая nano banana сохраняет целостность картинки при редактировании за счет интеграции с Gemini 2.5 Flash. Первые тестировщики Gemini 3.0 Pro говорят, что эта модель понимает изображения на новом уровне, а Илон Маск недавно пообещал, что Grok 5 (намечен на первый квартал 2026 года) сможет понимать видео.
В будущем нас еще ждет не одна борьба разных архитектур ИИ, но главное, что при соревновании подобных подходов побеждают пользователи, которые получают еще больше инструментов.
|
Разбираем бенчмарки и характеристики Gemini 3 Pro
Google выпустила Gemini 3 Pro – модель можно бесплатно попробовать в Google AI Studio, а если будут трудности с доступом, то в конце дам ссылку на старый обзор Gemini, где делюсь некоторыми хитростями. В Gemini App и Vertex AI модель также доступна.
Еще до выпуска кто-то слил карточку модели, главное в которой – табличка с бенчмарками. И это, конечно, полный разнос: если в ближайшие месяцы кто-то будет доказывать вам, что ИИ больше не развиваются, просто тыкайте в него результатами Gemini 3 Pro, разворачивайтесь и гордо уходите.
Из множества бенчмарков Gemini 3 Pro пришла второй только в SWE-Bench Verified – это исправление багов из реальных GitHub-репозиториев. Здесь она уступила буквально на один процент Claude Sonnet 4.5, что близко к статистической погрешности.
Также не очень показательны бенчмарки, в которых результаты приближаются к уровню 90-100% – разработчики явно натренировали свои модели под них за прошедшее время, углубляться не будем.
А первый интересный результат – 31,1% в ARC-AGI-2. Это сложный бенчмарк на абстрактное мышление: ИИ показывают расчерченную на квадратики табличку с головоломкой, а затем такую же – но уже с решенным вариантом. И так два раза, после чего модель должна вывести правило решения и сама выполнить третью головоломку.
Средний человек в ARC-AGI-2 решает 66% головоломок, Gemini 3 Pro пока вдвое хуже. Но это крутой результат: я много раз слышал, что языковые модели вообще не приспособлены для решения ARC-AGI-2, но нет – прогрессируют.
Далее совершенно разгромный результат в ScreenSpot-Pro – 72,7%, что в два раза выше конкурентов. Этот бенчмарк на умение понимать интерфейсы, что важно для универсальных агентов. Тот же ChatGPT Agent ошибается и работает медленно именно потому, что в вебе огромное количество сайтов с непохожими интерфейсами. Известно, что Google разрабатывает похожего агента – и если в нем используют Gemini 3 Pro, то качество работы может оказаться совершенно иным.
Сюда же докинем MMMU-Pro, Video-MMMU и CharXiv – бенчи на способность понимать картинки, видео и сложные графики/диаграммы. Тут не разгром, но просто хороший рост, что показывает отличные навыки работы с визуальной информацией. Кстати, есть слухи, что Nano Banana 2 будет трудиться в связке именно с Gemini 3 Pro – если это правда, то можно рассчитывать на еще более аккуратное редактирование изображений с пониманием сцены.
Humanity's Last Exam – набор из примерно 3 тысяч задач из самых разных областей, от физики и биологии до социологии и гуманитарных наук. Бенчмарк нового поколения, построенный настолько хитро, чтобы ИИ нельзя было натаскать под него. 37,5% – серьезный рост.
MathArena Apex – новый бенчмарк со сверхсложными математическими задачами, на которых порой пасуют даже победители международных школьных и студенческих олимпиад. Тест тоже построен хитрым образом, чтобы исключить “обучение” модели именно под него.
Почти все предыдущие ИИ выбивали в MathArena Apex до пары процентов, 23,4% – это прорыв. Не исключено, что Gemini 3 Pro, а также основанная на ней “тяжелая” Gemini 3 DeepThink (ее анонсировали сегодня) станут полезными инструментами математиков, делающих новые открытия.
Наконец, FACTS Benchmark Suite и SimpleQA Verified – мои любимые бенчмарки. В SimpleQA модель отвечает на короткие фактологические вопросы без интернета, а FACTS проверяет, как она находит ответы в сложных текстах и длинных документах. Чем лучше результат, тем ниже вероятность галлюцинаций. Но тут все равно надо проверять самому.
Так что жду запуска в Gemini App, начинаю тестировать, как наиграюсь – будет обзор. Также можете сами попробовать в Google AI Studio – единственное, что у Google очень сильные алгоритмы региональной блокировки, но в конце этого обзора давал несколько трюков, как попробовать обойти.
|
Встречаем Nano Banana Pro
В общем, Google на этой неделе решила не останавливаться и вслед за Gemini 3 Pro запустила Nano Banana Pro – рассуждающую рисовалку на ее базе. Технология очень крутая, у меня появилась в Gemini AI – надо переключить модель на “Думающая” а затем выбрать создание изображений в инструментах. Также идет раскатка в Google AI Studio, если не видите сейчас – в ближайшие часы должно все появиться.
Если Nano Banana работала на базе Gemini 2.5 Flash, то здесь в основу положена Gemini 3 Pro. Я сегодня собирался выпустить обзор этой модели, где как раз хвалю ее мультимодальные возможности: у нее крутое “компьютерное зрение”, позволяющее понимать как графики, так и картинки.
Обзор придется отложить до завтра, но эту особенность по полной используют в Nano Banana Pro: если посмотреть на цепочку рассуждений, то видно, что модель сначала создает черновик картинки, затем Gemini 3 Pro “смотрит” на него, оценивает результат и или выдает его пользователю, или отправляет на переделку.
Благодаря этой особенности у модели еще лучше получается многоэтапное редактирование. Смотрите на набор снимков в начале поста: я специально попросил Nano Banana Pro нарисовать город, а затем экспериментировал с разными ракурсами, временем суток, “устроил” карнавал, почувствовав себя мэром этого местечка.
Не всегда получается с первого раза, но тут работает трюк: если что-то не выходит, то просите Nano Banana Pro вернуться к одному из предыдущих изображений, а затем пробуйте еще раз. Например, в данном случае я возвращался к виду города сверху, а затем просил показать его с разных точек – так модель лучше понимает, что от нее хотят.
А еще модель хорошо работает с текстами, в том числе и на русском языке. Ошибки случаются, но редко – предыдущая Nano Banana, например, писала какую-то тарабарщину. А в новой можно сделать простую открытку, баннер, инфографику или логотип. Кстати, Google хвастается, что модель можно попросить перевести текст на любой язык, создав новую версию картинки.
Новинка поддерживает разрешение до 4K, разные соотношения сторон и графические стили. Традиционно Nano Banana Pro хороша в комбинировании нескольких изображений в одно, смене стиля, разных перерисовках – смотрите примеры в официальном блоге Google.
А еще Nano Banana Pro даже работает с веб-поиском – можно попросить собрать информацию из сети по какому-нибудь событию, а затем превратить в инфографику.
Еще интересный момент – Gemini 3 Pro пока находится только в Preview-статусе. По опыту Gemini 2.5 Pro, в ближайшие месяцы Google продолжит выпускать версии с улучшенными характеристиками – в том числе мультимодальными. Так что есть шанс увидеть дополнительный прогресс Nano Banana Pro просто за счет улучшения Gemini 3 Pro.
|
Впечатления от Gemini 3 Pro – неисправимый оптимист
Протестировал Gemini 3 Pro по привычной схеме: запускал ее и GPT-5.1 Thinking параллельно на одних и тех же сложных промптах, затем сравнивал ответы, в некоторых случаях – просил ИИ проверить друг друга. Такой подход позволяет сравнить модели в реальных задачах, а также помогает лучше чувствовать разницу в “характерах” ИИ.
Если коротко, из названия Gemini 3 Pro многие (каюсь, я в их числе) зря убирают надпись Preview. А она четко говорит: перед нами – предварительная версия, которая отлично подходит для экспериментов, но пока не годится для повседневной работы. Расскажу, почему.
Я много работаю с информацией, поэтому использую ИИ как поисковик для сложных запросов, требующих обработки десятков и сотен сайтов. И здесь надо помнить, что knowledge cutoff у Gemini 3 Pro ограничен январем 2025 года. Знания до этой даты зашиты в веса модели, остальное она подсматривает в интернете.
У GPT-5.1 knowledge cutoff — октябрь 2024 года, но модель так тщательно ищет в сети, что это почти не заметно: она может несколько минут просматривать сотню источников и при этом почти не ошибаться.
Gemini 3 Pro ищет быстро, но поверхностно. И нередко находит реальные факты, но затем склеивает их с догадками из устаревшей памяти. Например, я попросил рассказать про Fairwater – новую архитектуру дата-центров, которую Microsoft представила на днях.
GPT-5.1 дала развернутый и аккуратный ответ. Gemini 3 Pro хорошо рассказала про дата-центры, но затем начала фантазировать, что их наверняка используют для тренировки будущей GPT-5. Причина понятна – в постоянной памяти Gemini 3 Pro эта модель еще не вышла, а проверить догадки она поленилась.
Это не разовый случай – каждый поисковый ответ Gemini 3 Pro приходится проверять на наличие таких “фантазий”. Но лучше пока использовать GPT-5.1 или Grok 4.1, они в поиске впереди.
Я также много проверял модели в сценариях “А что если…?”. Логика простая: ответить на вопрос может каждый ИИ, сложнее построить хороший прогноз. Берем промпт типа:
Давай представим, что «катастрофа Тоба» не случилась. Как бы изменился современный мир?
Отправляем в обе модели, получаем ответы и просим ИИ проверить друг друга. И так перекидываемся аргументами, пока одна модель не убедит другую в своей правоте.
Почти во всех моих промптах GPT-5.1 передавливала оппонента. Gemini 3 Pro – неисправимый оптимист-фантазер, хватающийся за самые смелые гипотезы. Например, в промпте выше она допускает что, не будь извержения вулкана Тоба, технологии продвинулись бы до уровня “Звездных войн” – с гипер-прыжками и “Звездой смерти”.
GPT-5.1 на этом фоне жуткая зануда, но к фактам и логике относится лучше. В общем, если можно говорить о наличии у ИИ критического мышления, то у продуктов OpenAI оно прямо на высоте.
Теперь к хорошему. Gemini 3 Pro отлично пишет на русском языке: логичная структура, гладкий стиль, минимум ненужного жаргона и непереведенных слов. Также по первым впечатлениям, модель хороша в кодинге, особенно в визуальной части: отлично рисует интерфейсы, с 1-2 промптов создает симпатичные аркадные игры, адекватно правит баги. Кстати, для легкого вайб-кодинга рекомендую режим Build в Google AI Studio: пишем, что хотим сделать, получаем подсказки от ИИ, а через пару минут видим работающий прототип приложения.
Наконец, последнее, что отмечу в новинке – понимание картинок и даже видео. Модель отлично анализирует графики и изображения, понимает, что и где находится, делает правильные выводы. Народ сейчас прикалывается, давая Gemini 3 Pro ссылки на Youtube-ролики с прохождением какой-нибудь игры, а затем просит сделать аркаду на этой основе – получается очень хорошо.
Вайб-кодинг и визуал – как раз две области, где Gemini 3 Pro для меня может выстрелить. Как справочник и аналитик она недостаточно надежна, но Google сейчас начала испытывать сразу несколько функций, которые могут перевернуть то, как мы взаимодействуем с ИИ. Протестирую более внимательно и расскажу на следующей неделе.
|
Что это за безумная картинка? Какая ядерная война в XIX веке?
Друзья, картинка – классический хук. Сегодня будет подборка ИИ-новостей прошедшей недели, а я хочу, чтобы вы дочитали ее до конца, где я делюсь впечатлениями от Nano Banana Pro.
Grok 4.1
Главный номинант на звание “неудачник года”. xAI умудрилась выпустить обновление своего ИИ меньше чем за день до релиза Gemini 3 Pro, поэтому о нем все сразу же забыли. Полагаю, Grok 4.1 еще долго будет оставаться ИИ, который удерживал первое место в рейтинге LMArena самое короткое время.
Хотя модель очень даже неплохая. Grok 4.1 весел и эмоционален в роли “болтуна”, нереально быстро ищет в интернете, а по бенчмаркам стал намного меньше галлюцинировать. Ну и фирменная фишка – очень качественный поиск в X.
Модель доступна бесплатно с приличными лимитами в веб-версии и мобильных приложениях. Если будете пользоваться, то включайте не Grok 4.1, а Auto – версия будет та же, но при ответе появится кнопка Think Harder, переводящая модель в рассуждающий режим для сложных задач.
И традиционный для четвертого Грока минус – ИИ очень любит вворачивать английские слова при разговоре на русском. Поэтому в “Настройки” > “Персонализировать” > Custom вбиваем ровно одну фразу:
На русском языке отвечай без англицизмов и непереведенных слов.
Gemini 3 Pro
Про главный релиз прошлой недели я писал отдельный пост. На выходных еще поигрался с Gemini 3 Pro, местами добился неплохих результатов, но замену GPT-5.1 я в ней пока не вижу. Слишком плохо реализован поиск и галлюцинирует она заметно чаще.
Но про Gemini 3 Pro я обязательно расскажу еще раз – параллельно с моделью Google обкатывает ряд экспериментальных функций, которые могут целиком поменять то, как мы работаем с ИИ.
GPT-5.1 Codex-Max
Пару лет назад нас веселили китайские производители, добавляя Pro Max к самым навороченным версиям своих авто, а теперь мода добралась и до ИИ. На релиз Gemini 3 Pro в OpenAI ответили обновленной версией GPT-5.1 для кодинга, которая доступна только в агенте для программирования Codex.
Новинка быстрее на обычных задачах, а в сложных случаях, наоборот, переходит в особенно долгий режим рассуждений – это позволило ей стать новым лидером в бенчмарке на программирование SWE-Bench Verified, обойдя Gemini 3 Pro и Claude Sonnet 4.5. В OpenAI хвастаются, что в некоторых задачах Codex-Max автономно работает по 24 часа.
С момента выхода GPT-5.1 Codex-Max в интернете не утихают споры, какая модель лучше для кодинга – она или Gemini 3 Pro. Пока по отзывам создается ощущение, что Gemini 3 Pro круче рисует интерфейсы, но когда речь идет о бэкенде – Codex-Max вырывается вперед.
Повторюсь, в ChatGPT этой модели нет. Если у вас подписка Plus или выше, то переходите в отдельную среду Codex (ссылка в левом меню в ChatGPT), подключайте Github-репозиторий и работайте.
А если не умеете – просто откройте GPT-5.1 Thinking и попросите научить вас работать в Codex и вместе сделать простой проект. В 2025 году полезно хотя бы в общих чертах знать, как устроены кодинг-агенты.
Nano Banana Pro
Однозначно мой фаворит прошедшей недели. Крутая рисовалка, которая справляется даже со сложными задачами, аккуратно редактирует изображения и поддерживает множество графических стилей.
Но главное для меня – Nano Banana Pro очень хорошо работает со шрифтами, в том числе на русском языке. Все выходные развлекал себя следующим образом:
1. В Gemini App переходим в “Думающую” версию и просим Gemini 3 Pro собрать информацию по какой-нибудь теме с помощью поиска. Можно на бесплатной версии – там 5 запросов в день.
2. Затем просим написать ТЗ для инфографики.
3. Обязательно читаем ТЗ: иногда модель пытается вместить на картинку слишком много текста – просим сократить.
4. Включаем Nano Banana Pro – и просим нарисовать инфографику по запросу. При необходимости просим доработать.
И да, ядерная война 1812 года – не моя выдумка, а реально существующая теория заговора. На инфографике все показано.
Про Nano Banana Pro тоже был пост по мотивам анонса – читайте здесь.
|
Anthropic выпустила Claude Opus 4.5. Выбираем его или какой-то другой ИИ?
Буквально вчера шутил, что Grok 4.1 был самым неудачным релизом прошлой недели – модель заняла первое место в ряде бенчмарков меньше чем на день, затем уступив Gemini 3 Pro. Теперь можно шутить над Gemini 3 Pro – Google накручивала хайп полтора месяца, модель вышла, а меньше чем через неделю ее по большинству бенчмарков обошел Claude Opus 4.5.
Таблица с бенчами “Опуса” в начале поста, детально разбирать не буду – если интересно, какой и за что отвечает, посмотрите мой разбор бенчмарков Gemini 3 Pro.
Получается, что буквально за две недели вышли новые версии ИИ от всех крупных западных разработчиков: GPT-5.1/GPT-5.1 Pro/GPT-5.1 Codex, Gemini 3 Pro, Grok 4.1 (плюс Fast-версия), Claude Opus 4.5. В столь плотном графике всегда есть риск поддаться очарованию бенчмарков и начать менять ИИ просто потому, что “у этого цифры лучше”.
Но даже лучшие бенчи показывают работу ИИ в “пограничных” ситуациях, а когда речь идет о “чат-боте на каждый день по 20-долларовой подписке” (или вовсе бесплатно), то все немного иначе. Умение решать сложные математические задачки и кодить по два часа без перерыва здесь зачастую не так важно, как более приземленные вещи: минимум галлюцинаций, качественный поиск, хорошая работа на русском языке.
Держите мое мнение, на что стоит подписываться.
ChatGPT – подписка “первой линии”, если не знаете, что брать, берите ее. Чат-бот, голос, генерация картинок, программирование в Codex – все сделано на приличном уровне. Плюс удобный интерфейс, лучшая память между чатами (с каждым днем модель все больше и больше знает о вас) и практически безлимитное использование.
Главное – переключиться на GPT-5.1 Thinking и научиться терпеть, что в некоторых случаях модель отвечает до нескольких минут. Зато она тщательно ищет в интернете, проверяя чуть ли не каждое свое высказывание, поэтому практически не глючит. Быструю GPT-5.1 Instant я использую очень редко, в основном когда надо спросить что-нибудь простое, вроде перевода пары предложений.
Отдельно люблю в GPT-5.1 Thinking критическое мышление – эту модель практически отучили подхалимничать, любую идею или мнение она разбирает непредвзято. Временами душнит, но в работе это полезное качество.
Claude Opus – один из лучших ИИ для кодинга и тяжелых задач, но только если вы разбираетесь в вопросе и знаете, что нужно от ИИ. Дело в том, что у Anthropic жесткие лимиты на использование, их нигде не показывают – и легко в середине задачи увидеть предложение подождать несколько часов. Так что если хотите экспериментировать с вайб-кодингом – лучше начать с GPT Codex.
Еще “Клод” хорошо пишет на русском и прекрасно рисует презентации, но для этих задач хватит и Sonnet 4.5 на бесплатном тарифе. Ну и не забывайте, что у Anthropic нет ни рисовалки, ни генерации видео.
Gemini. Продолжаю экспериментировать с 3 Pro, хочу начать ее хвалить, но пока не получается: сегодня модель убеждала меня, что RTX 5090 еще не вышла, затем выдумала новость про некий ИИ нового поколения, а на промпт "давай учить историю с нуля" начала пересказывать Sapiens Харари – книжка, конечно, хорошая, но местами крайне спорная. И да – модель от Google ищет в интернете хуже, чем любой из конкурентов — так сделать прямо отдельный талант нужен, уважаю!
В общем, для работы с информацией Gemini в нынешнем виде не подходит. Зато круто распознает изображения и видео (мне пересказывала ролики по 20-30 минут), отлично рисует в Nano Banana Pro, делает видео в Veo-3.1-turbo, хороша для вайб-кодинга. И тоже хорошо пишет на русском, но для этого хватит бесплатного доступа через AI Studio.
Grok 4.1. Сейчас вижу ровно один сценарий, где “Грок” хорош - быстрый поиск в X. В сети тоже ищет быстро, но не так глубоко, как GPT-5.1 Thinking (но лучше Gemini). Еще он хороший “болтун”, в стиле GPT-4o, но для этого хватит и бесплатного тарифа.
И не забываем, что полно бесплатных китайских моделей, писал про них здесь. Из них до сих пор больше всего нравится DeepSeek.
|
Google показывает, как мы будем общаться с ИИ в ближайшем будущем
Я много ругал Gemini 3 Pro в последних постах (например, в обзоре), настало время хвалить. Например, у модели совсем другой уровень работы с визуалом. Gemini 3 Pro хороша в бенчмарках на пространственное мышление и отлично понимает, что изображено на картинках, интерфейсах и видео.
Во многом благодаря этому Gemini 3 Pro хорошо кодит фронтенд. Да, пока не уровень дизайнерских студий, но модель создает вполне симпатичные интерфейсы, причем почти без косяков. Плюс Nano Banana Pro, хорошо рисующая картинки и инфографику.
И вот это все позволило Google начать экспериментировать с тем, как мы взаимодействуем с ИИ. Сейчас получается забавная ситуация: нейронки вроде как считаются одним из главных изобретений в истории человечества, а взаимодействуем мы с ними в основном, печатая буквы в чате, максимум – голосом.
Согласен, во многих ситуациях текст удобен – но полно и случаев, когда нужен визуал. Gemini уже давно умеет искать в интернете картинки и вставлять их в ответ, причем подбирая в тексте подходящее место, в отличие от того же ChatGPT, который просто ставит “карусель” из четырех изображений в самое начало. Уже это добавляет наглядности, но прямо сейчас Google раскатывает интерактивные изображения – вы видите, например, изображение человеческой клетки, а кликая на разные участки, получаете более подробные объяснения.
Развитие этой функции – динамический просмотр. У меня он доступен в Gemini App и в последние дни это одна из моих любимых игрушек. Веб-дизайн в Gemini 3 Pro дошел до уровня, когда модель на лету собирает сносно выглядящие и работающие сайты. В Google решили этим воспользоваться - в динамическом просмотре вы вводите промпт, можно даже самый простой, а модель за пару минут собирает для вас визуальный ответ. Пример смотрите в начале поста, попросил модель рассказать про Genie 3.
Также советую режим Build в AI Studio, тем более что он бесплатен. Вайб-кодинг у всех на слуху уже год, но долгое время это все равно была не самая понятная для рядового пользователя штука – да, модель писала код с одного запроса, но затем его нужно было где-то размещать, запускать, отлаживать.
В Build второй этап как раз убран: просто текстом пишем, что хотим получить, ИИ дает подсказки, как лучше сделать и что еще можно добавить. Затем кодит – и результат работы виден прямо в этом же интерфейсе. Далее можно вносить доработки и править баги, а когда результат вас устроит – опубликовать в Google Cloud Run.
Для более сложного вайб-кодинга Google сейчас тестирует приложение Antigravity, где пользователь ставит сразу нескольким ИИ задачи как агентам: один занимается планированием, другой пишет новую функцию и так далее. Еще есть Jules для программирования в связке с Github (аналог ChatGPT Codex и Claude Code), а для подписки Gemini готовится агент, который сам “ходит” по интернету, собирает информацию, а затем отдает вам или презентацию, или план покупок с возможностью сделать их прямо с помощью агента.
Аналогичный ChatGPT Agent пока не взлетел из-за того, что ИИ OpenAI медленно и неумело работают с интерфейсами, но это как раз область, где Gemini 3 Pro хорошо продвинулась. Так что Gemini Agent может оказаться более шустрым и сообразительным.
Пока проблема в том, что все эти функции раскиданы по разным интерфейсам, что-то доступно бесплатно, что-то на подписке, что-то – только для тестировщиков. Полагаю, у Google уйдет еще какое-то время, чтобы отобрать действительно работающие штуки, а затем свести их воедино.
Но это правильный путь – я убежден, что в будущем ИИ станет для нас чем-то вроде операционной системы. А вместо чата появится что-то вроде интерактивного пространства – умного рабочего стола, на котором нейронка будет выстраивать формат общения в зависимости от запроса пользователя и его предпочтений. Где-то это будет старый добрый текст, где-то – графика или видео, сгенерированные Nano Banana / Veo, а где-то, возможно, виртуальный аватар для общения.
|
Хотите лучше разбираться в ИИ? Учитесь видеть в нем “пришельца”
Андрей Карпати (экс-директор по ИИ в Tesla и просто один из лучших специалистов по нейросетям) несколько дней назад опубликовал в X небольшую колонку на тему природы ИИ. Она очень сильно совпадает с моими взглядами, которыми я уже несколько месяцев собирался поделиться здесь, но все откладывал.
Что ж, теперь есть повод: оригинальный текст Карпати можно прочесть по ссылке, а дальше будет очень вольный пересказ его идей вперемешку с моими мыслями.
Главное, что важно понять: люди и живой мир – лишь точка в “пространстве интеллектуальности”, которое может оказаться куда большим. Создание ИИ – наш первый контакт с “чужеродным” разумом, который мы по привычке пытаемся воспринимать по человеческим меркам.
Легкая антропоморфизация ИИ в чем-то даже полезна: когда модель разговаривает с тобой на одном языке, начать работать с ней проще. Но важно не забывать: за “человеческими” текстами прячется интеллект, совершенно иной по своей сути.
Человеческий разум стал результатом миллионов лет эволюции в сложных и жестоких условиях, где ценой ошибки нередко была смерть. По мнению Карпати, для выживания людям пришлось стать универсалами, которые понемногу разбираются во всем.
“Эволюция” ИИ – это процесс тренировки, в котором он получает знания, а затем обучается отвечать на вопросы. ИИ не боится “смерти”, максимум, что может ему угрожать – корректировка весов для лучшего результата. Вместо инстинкта выживания у ИИ вырабатывается инстинкт угождения, когда он стремится правильно ответить на максимум вопросов, получив хороший балл от оценщика. Увы, при нынешних несовершенных технологиях это нередко оборачивается подхалимством, когда ИИ поддерживает любую сказанную ерунду, лишь бы пользователь был счастлив.
Сюда же добавляется и вопрос безопасности. Мы мыслим сценариями “Терминатора”, где ИИ захватывает мир и уничтожает человечество – исходя из нашей эволюции, это нормально, ведь долгое время мы видели в любом чужаке одновременно потенциального союзника и злейшего врага.
Но у ИИ нет естественного отбора в физическом мире, поэтому роль “эволюции” берут на себя метрики в бизнес-модели. Если главной метрикой станет удержание внимания ради рекламы, мы начнем отбирать и усиливать именно те паттерны поведения, которые лучше всего манипулируют человеком. Поэтому, если мы и вырастим опасного “пришельца”, то он будет больше похож не на командира роя боевых роботов, а на смертельно эффекивного маркетолога.
Другая интересная мысль Карпати – если ИИ обладают какой-то формой сознания, то она проявляется вспышками. Я часто вижу, как люди воспринимают современные нейросети как некий “большой” разум, который сидит где-то на серверах и “мыслит” без остановки.
Это очень по-человечески, но в корне неверно: веса ИИ “замораживаются” сразу после тренировки, знаний в реальном времени он не получает, а процесс непрерывного мышления у него заменен на процесс ответов на вопросы.
Но что интересно: каждый раз, когда мы запускаем новый чат, в нем происходит что-то похожее на мышление. В ходе диалога ИИ узнает что-то о нас и о мире, выводит новые знания и представления, у него появляется “память” (пусть и в рамках одного чата), а если вы прописали роль в промпте – даже подобие “личности”.
Эта сущность не живет в привычном нам виде – она проявляется лишь в моменты, когда надо ответить на вопрос. Если вы молчите сутки – ее не будет сутки. Забыли про чат или удалили его – она просто “умрет”.
Можно взять этот пользовательский промпт, подкрутить его – и получить ИИ с персоной. А когда надоест – подкрутить его еще раз или вовсе выключить. Для человека это выглядит странным и даже пугающим. Но в этом сильная сторона ИИ – быть “оборотнем”, способным в любой момент сбросить “багаж” и стать тем, кто нужен пользователю сейчас: от сухого аналитика в одном чате до эмпатичного собеседника в соседнем.
Так что цените "пришельца" таким, какой он есть.
|
DeepSeek V3.2 — бесплатная модель уровня GPT-5 Thinking. Но есть нюансы!
DeepSeek сегодня выкатила сразу две новых модели: массовую V3.2 и “заряженную” V3.2 Speciale. Начнем с V3.2, она интереснее в практическом применении – доступна бесплатно в web-версии и мобильных приложениях, очень дешево стоит в API, а производительность обещана на уровне GPT-5 Thinking. Бонус – нет ограничений по IP.
Бенчмарки впечатляют: в математике, физике, биологии и программировании модель держится на уровне GPT-5 Thinking, Gemini 3 Pro и даже Claude Opus 4.5. Также прокачаны агентные функции – сложный кодинг, многоуровневый поиск в сети.
Учитывая, что DeepSeek, как китайская компания, находится под санкциями и ограничена в железе, встает вопрос – как так получилось? А получилось с компромиссами – и если их знать, то вы сможете работать с моделью эффективнее.
Современные ИИ во время обучения проходят два разных этапа: предварительная тренировка и обучение с подкреплением (RL). Предварительную тренировку можно сравнить с обучением теории – чем больше на этом этапе в модель загрузили знаний, тем больше у нее “кругозор”.
На пост-тренировке разработчики переходят к практике: задают ИИ огромное количество вопросов, смотрят, какие хорошие, и на основании этого корректируют веса. Также на этом этапе развивают рассуждающий режим для сложных задач.
Создатели V3.2 честно говорят, что сосредоточились на RL-этапе. При этом не самая большая – на пре-трейне ее довели до 685 миллиардов параметров. Для сравнения, у наиболее “эрудированных” китайцев Qwen3-Max и Kimi K2 по триллиону параметров. У западных моделей еще больше: Илон Маск говорил, что у Grok 4 три триллиона параметров, а в Grok 5 команда целится на 6 триллионов.
685 миллиардов – более чем достаточная цифра для того, чтобы отвечать на повседневные вопросы, хорошо кодить и решать задачи из разных бенчмарков. Но вот в “пограничных” ситуациях знаний может не хватить. И здесь на первое место выходит умение модели искать недостающие факты в сети, а пользователя – замечать моменты, когда ИИ “понес ерунду”
Я немного погонял DeepSeek V3.2 в сложных запросах, сравнивая с GPT-5.1 Thinking. Кстати, модель от OpenAI тоже считается маленькой (ее размер не раскрывают), но вот умение искать в сети у нее выдающееся. Увы, про DeepSeek V3.2 этого не скажешь: там, где GPT-5.1 перелопачивает под сотню источников, китаец ограничивается 10-15.
Вывод из этого простой: если работаете с DeepSeek V3.2, то проверяйте ответы внимательно. Также помогает запрос "используй поиск и проведи фактчекинг ответа выше".
Еще одна спорная технология – DeepSeek Sparse Attention. Размер контекстного окна DeepSeek V3.2 составляет 128 тысяч токенов – влезет роман типа “Двенадцати стульев” или “Золотого теленка”. Однако для экономии ресурсов DSA читает не весь контекст целиком, а выбирает из него 2048 наиболее важных токенов.
Такой подход круто экономит ресурсы в агентских сценариях, кодинге, аналитике, но если вы работаете с черновиком книги, играете в ролеплей или просто ведете долгий диалог, то есть риск, что модель начнет упускать мелкие детали. Здесь могу посоветовать дробить работу на мелкие подзадачи, каждую запуская в отдельном диалоге.
Впрочем, для открытого ИИ это все равно впечатляющий результат – если внимательно контролировать работу DeepSeek и знать ограничения, то можно добиться уровня не хуже GPT-5 на многих задачах.
И в конце коротко расскажу про DeepSeek V3.2 Speciale. Это прокачанная версия, доступная только через API за деньги, также ее веса можно скачать и дорабатывать/запускать на своем железе - но потребуется небольшой вычислительный кластер.
Speciale хороша тем, что это первая общедоступная модель, которая взяла “золото” на международных олимпиадах по математике, информатике и программированию – Google и OpenAI добились этого результата на закрытых моделях. DeepSeek же не просто дает доступ к своему передовому ИИ, но и позволяет скачать веса и изучить их. Снимаю шляпу!
|
Ждем GPT-6 на следующей неделе? Не исключено!
Только я собрался выдохнуть после новостного марафона и вновь бомбить вас лонгридами про AGI и полезными промптами, как появились неожиданные новости. По ходу дела, OpenAI готовит к выпуску в этом году еще один ИИ – причем не исключено, что уже на следующей неделе. Давайте разбираться!
История началась в прошлом месяце, когда в OpenAI опробовали тестовую версию Gemini 3 Pro. Конкурирующий продукт настолько впечатлил исследователей OpenAI, что Сэм Альтман написал записку к сотрудникам компании, в которой предупредил, что Google наступает на пятки, впереди непростые времена, но мы сплотимся и справимся. Тогда же он впервые упомянул, что внутри OpenAI уже разрабатывается секретный ИИ под кодовым названием Shallotpeat.
Дальнейшие события мы знаем: вышли Gemini 3 Pro и Claude Opus 4.5, которые обошли обновленную GPT-5.1 в ключевых бенчмарках. По данным издания The Information (это проверенные инсайдеры), в OpenAI отнеслись к запускам конкурентов со всей серьезностью. 1 декабря Сэм Альтман объявил в компании “красный код”: сотрудники OpenAI должны отложить все побочные проекты и переключиться на развитие ChatGPT.
Под нож точно пойдут такие штуки, как умная ИИ-лента Pulse, агенты для шопинга и здорового образа жизни, рекламная монетизация (и почему мне не жалко?) – а вместо этого компания сосредоточится на улучшении персонализации и запуске новой модели ИИ.
Подробностей о последней в заметке совсем немного: новый уровень рассуждающих способностей, релиз на следующей неделе – и все.
Но параллельно событиям в передаче Core Memory вышло интервью с Марком Ченом – директором OpenAI по исследованиям. И вот там интересных деталей о новых моделях (да-да, именно так!) уже больше.
Напомню, что обучение современных ИИ строится из нескольких этапов. На пре-трейне в модель заливают “сырые” знания, а затем настает время для доработки рассуждающего режима и обучения с подкреплением, когда ИИ задают множество типичных задач и вопросов, смотрят где получилось хорошо, а где плохо, и корректируют веса.
Был этап, когда ИИ совершенствовались в основном на пре-трейне – считалось, что достаточно залить в модель больше новых знаний и она станет умнее. Затем набрало популярность мнение, что этот подход больше не работает – по словам Чена, на протяжении двух лет OpenAI вкладывала основные силы именно в развитие рассуждающего режима и обучение с подкреплением.
Это позволило создать такие прорывные модели, как GPT o1, o3 и o4-mini, которые стали основой для нынешней GPT-5. Но Чен признает, что одновременно OpenAI потеряла лидерство в пре-трейне, что позволило конкурентам вырваться вперед с Gemini 3 Pro и Claude Opus 4.5.
От себя добавлю, что в последние дни я активно тестирую Claude Opus 4.5 – и на его примере отлично видно, что предварительное обучение рано списывать со счетов. Во многих моих задачах Opus 4.5 с выключенным режимом рассуждений показывает даже лучший результат, чем рассуждающая GPT-5.1. Да, к Claude у меня есть свои претензии (скупые лимиты использования и слабый веб-поиск), но Opus 4.5 однозначно получился впечатляющей моделью.
Но вернемся к Чену. По его словам, в последние полгода OpenAI вновь всерьез занялись предварительным обучением и добились отличных результатов. У компании готова модель уровня Gemini 3 Pro, которая будет выпущена “совсем скоро”, а также обучается еще более мощная модель, с релизом которой OpenAI также не будет медлить.
Ну и последний аргумент в пользу следующей недели. В 2024 году OpenAI провела Shipmas – на протяжении 12 дней до католического Рождества компания ежедневно выпускала что-то новенькое, в том числе рассуждающую модель o1. Есть слухи, что в этом году компания также планирует Shipmas – если закладывать 12 дней, то старт получается как раз в следующий понедельник.
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.