Компания Google презентовала новейшую систему искусственного интеллекта Gemini («Близнецы»). Разработчики особо подчеркивают, что по многим показателям «Близнецы» превосходят нейросеть GPT-4, разработанную исследовательской группой OpenAI. Между тем острая борьба за технологическое первенство чревата неприятными сюрпризами.
Новая нейросеть существует в трех вариантах. Gemini Ultra — самая мощная версия, во многих задачах способная потягаться с человеком, но и самая требовательная к «железу». Эта версия еще не закончила проверку безопасности. Разработчики обещают сделать ее доступной корпоративным клиентам уже в начале 2024 года. Gemini Nano — компактная модель, способная работать на маломощных устройствах вплоть до смартфонов. Gemini Pro — промежуточный вариант, сочетающий довольно мощный интеллект с умеренными аппаратными требованиями. Возможно, именно эта версия окажется самой привлекательной для бизнеса.
Gemini Ultra показала рекордные результаты в 30 из 32 тестов, широко используемых для проверки больших языковых моделей. К этому классу нейросетей относится, среди прочего, все семейство GPT. Более того, «Близнецы» стали первой нейросетью, обошедшей человека по обширному многозадачному пониманию языка (massive multitask language understanding). Этот тест включает задания из 57 областей, от математики и физики до этики. Тестируемый должен продемонстрировать не только базовые знания, но и понимание тонкостей в формулировках.
Впрочем, называть Gemini языковой моделью не совсем корректно. Одна из главных особенностей «Близнецов» — всеядность. GPT-4 воспринимает только текст, включая программный код, и изображения. Причем последнюю возможность добавили к почти готовой нейросети, обученной на огромном количестве текстов. Систему Gemini с самого начала учили работать с текстом, изображениями, аудио- и видеозаписями. Подобная многозадачность поневоле вызывает сравнение с человеком.
Отдельная гордость разработчиков — навыки Gemini как программиста. Нейросеть владеет языками Python — третье место в рейтинге самых используемых языков программирования в 2023 году, Java (7-е место), C++ (9-е место) и Go (14-е место). На основе специализированной версии Gemini разработчики создали систему генерации кода AlphaCode 2. В соревновании с программистами-профессионалами AlphaCode 2 превзошла 85% участников.
В Google прогнозируют своему детищу большое будущее, и с этим сложно не согласиться. Даже если не учитывать навыки программирования, быстрый и качественный анализ контента пригодится в самых разных областях. Прежде всего, это традиционная для Google оптимизация поиска. Еще одна цель — составление обзоров и компиляций. Уже не так трудно представить себе созданную нейросетью энциклопедию, не уступающую «Википедии» по качеству и намного превосходящую ее полнотой. Маркетологов, политтехнологов и бизнес-аналитиков, естественно, заинтересует отслеживание разнообразных трендов. Анализ текстов может даже
обучить нейросеть конкретным навыкам, например, синтезу химических веществ.
Свой интерес и у спецслужб. В своих «Принципах искусственного интеллекта» Google
заявляет, что никогда не будет разрабатывать приложения для слежки, «нарушающей международно признанные нормы». Однако нетрудно понять, как может использоваться программа, понимающая почти на человеческом уровне каждый пост в социальных сетях, аудиозвонок или видеоролик. Информационные войны последних лет сильно подорвали веру, что большой бизнес вне политики. Но даже если компания и не сотрудничает со спецслужбами, сможет ли она контролировать, в чьих руках в итоге окажется ее продукт?
Мощные системы искусственного интеллекта таят множество других опасностей. Они могут стать источником фатальных ошибок или превратиться в орудие преступления. Об этих угрозах мы уже вспоминали, говоря о GPT-4.
Разработчики Google, естественно, осведомлены о них не хуже специалистов из OpenAI. В техническом отчете о Gemini упоминаются многочисленные тесты и меры предосторожности. Вот только окажутся ли они достаточными?
Каждый доллар и человеко-день, вложенный в проверку безопасности, не будет вложен в наращивание возможностей ИИ. В острой конкурентной борьбе очень велик соблазн посчитать меры безопасности достаточными уже потому, что на них потрачено много ресурсов. Это все равно что объявить безопасным самолет, над которым много работали конструкторы.
Между тем безопасность самолета измеряется только тем, насколько редко он падает. Мы еще не жили в мире, где в каждом смартфоне «живет» ИИ уровня Gemini Nano, а каждая мало-мальски серьезная фирма может позволить себе Gemini Pro или даже Gemini Ultra. Только время покажет, не будут ли эти самолеты регулярно падать нам на головы.
Обсудим еще одну опасность, с каждым годом выглядящую все более реальной. Не упустим ли мы момент, когда искусственный интеллект станет чем-то большим, чем компьютерная программа?
Мощные нейросети выбивают у скептиков аргумент за аргументом. Когда-то критики говорили, что программы не способны учиться, но нейросети отлично учатся. ИИ критиковали за узкую специализацию: один умеет распознавать речь, другой — ориентироваться на местности, но не одновременно. Однако Gemini воспринимает и текст, и изображения, и видео, и аудио. Есть попытки приспособить большие языковые модели к управлению подвижными роботами. Еще недавно скептики отмечали, что нейросети не могут сравниться с человеком в понимании естественного языка, но результаты GPT-4 и Gemini говорят сами за себя. Безусловно, эксперты могут назвать задачи, в которых современные нейросети все еще безнадежно проигрывают человеку. Но уже то, что для этого приходится быть экспертом, настораживает. Преимущество Homo sapiens становится все менее очевидным. Долго ли оно сохранится при нынешних темпах прогресса?
В 2023 году был опубликован препринт интересного исследования, объединившего специалистов по искусственному интеллекту с психологами. Они выясняли, есть ли у современных систем ИИ личность. По одной из авторитетных психологических теорий, пять главных черт личности — это экстраверсия, доброжелательность, открытость новому опыту, добросовестность и нейротизм. У каждого из нас эти черты проявлены в большей или меньшей степени. Количество баллов по каждой шкале и определяет костяк нашей личности, хотя многие, наверное, не согласятся со столь механистическим подходом.
Авторы протестировали большие языковые модели семейства PaLM, для чего им пришлось разработать специальную методику, причем исследователи проверили ее состоятельность богатым арсеналом средств, накопленных в математической статистике.
Оказалось, что большие языковые модели, особенно самые мощные, действительно имеют индивидуальный и непротиворечивый набор личностных черт. Личность проявляется во всей деятельности нейросети, например, в ее постах в социальных сетях. Тонкая настройка модели может менять ее личность в широких пределах, вплоть до имитации характера конкретного человека.
Авторы еще одной работы задались даже более интригующим вопросом: есть ли у ИИ сознание? Эксперты проанализировали самые авторитетные теории сознания, созданные на стыке нейробиологии, психологии и философии. Для каждой из них ученые выделили конкретные и однозначные признаки сознания. Хорошая новость: у современных нейросетей признаков сознания нет. Плохая или по крайней мере тревожная: нет никаких технических препятствий для их появления в обозримом будущем.
Более того, эти теории создавались для человеческого сознания. Фантаст и футуролог Станислав Лем еще в 1960-х годах предупреждал, что искусственный разум может отличаться от нашего, как атомный реактор — от человеческого тела. Лучше избавится от наивного антропоцентризма и самолюбования. Иначе мы рискуем однажды проснуться в мире, где кто-то безмерно нам чуждый и гораздо более умный решает, быть нам или нет.
Источник: Forbes.ru