Chrome на грани революции: новые ИИ-функции Gemini и расширенные возможности Nano Banana

Google внедряет в браузер Chrome новые инструменты на основе ИИ Gemini. Основными инновациями стали генератор изображений под названием Nano Banana, функция “Персональный интеллект” и опция “Автопросмотр”.

ИИ-ассистент, который был представлен в сентябре 2025 года в виде всплывающего окна, теперь перенесён в боковую панель. Это даст пользователям возможность задавать вопросы о посещаемом веб-сайте и других открытых вкладках.

Среди нововведений – возможность анализа нескольких вкладок в общей связке. Когда пользователь открывает несколько страниц с одного сайта, ИИ воспринимает их как единую контекстуальную группу.

Ранее интеграция Gemini была доступна только для пользователей Windows и macOS, а после обновления её смогут использовать также владельцы Chromebook Plus.

Компания использует только что запущенную функцию “Персональный интеллект”, которая получает доступ к аккаунтам Gmail, Search, YouTube и Google Photos, что позволяет задавать вопросы, учитывающие личные данные.

Эта функция появится в ближайшие месяцы и предоставит возможность спрашивать чат-бота о таких вещах, как семейное расписание или составление черновика электронного письма без необходимости перехода в Gmail.

Инструмент также позволяет редактировать и изменять изображения, используя другие картинки из интернета в качестве ссылок.

ИИ-агент способен выполнять задачи самостоятельно, такие как переход по ссылкам, осуществление покупок или поиск скидочных купонов. Он уведомит пользователя, если потребуется работа с конфиденциальной информацией.

ИИ-браузеры становятся всё более популярными в мире искусственного интеллекта, однако они также сопряжены с серьёзными рисками для пользователей. В декабре 2025 года OpenAI сообщила о выявленных уязвимостях.

Компания признала, что атаки типа “инъекция промпта” являются существенной проблемой.

“Такие уязвимости, как мошенничество и социальная инженерия в сети, вряд ли когда-либо будут полностью устранены”, — отметили представители OpenAI.

Anthropic и Google придерживаются аналогичного мнения, акцентируя внимание на многоуровневой безопасности и регулярных стресс-тестах.

В то же время Google представила функцию Agentic Vision, которая позволяет более детально анализировать файлы в режиме ИИ-агента.

Представители компании пояснили, что LLM нового поколения, такие как Gemini, обрабатывают информацию о мире лишь с помощью одного статического взгляда. Если они упускают важные детали, например, серийный номер на чипе или знаки на дороге, то “делают предположения”.

Agentic Vision в Gemini 3 Flash превращает процесс понимания изображений из статического действия в активный. Модель действует как аналитик-человек:

Точность распознавания возрастает на 5-10%.

Agentic Vision вводит цикл “думать, действовать, наблюдать” для задач распознавания изображений:

Gemini 3 Flash обучен увеличивать изображения при обнаружении мелких деталей.

Бета-версия Agentic Vision доступна для свободного пользования в Google AI Studio, Vertex AI, Gemini API для разработчиков и в чат-боте Gemini в режиме Thinking.

Напоминаем, что в декабре 2025 года Google выпустила языковую модель Gemini 3 Flash и сделала её стандартной в приложении Gemini и ИИ-режиме в поисковой системе.