Исследовательская группа OpenAI («открытый искусственный интеллект»), известная нейронными сетями серии GPT, представила новинку: систему GPT-4. По многим показателям она значительно обошла свою предшественницу GPT-3.5 и вообще любую другую нейросеть. Например, GPT-4 успешно сдала несколько профессиональных экзаменов, так что ее тут же стали сравнивать с человеком. О создании полноценного искусственного разума речь пока не идет, но, по мнению некоторых экспертов, он уже не за горами.
Мозг учится и запоминает, усиливая или ослабляя связи между нейронами. Искусственные нейронные сети используют тот же принцип. Правда, на этом сходство обычно и заканчивается, так что коммерческая нейросеть похожа на мозг не больше, чем самолет на птицу.
Опуская детали, обучение простейшей нейросети можно описать так. Нейроны голосуют за те или иные решения (например, котик изображен на картинке или нет). Потом ответ, принятый большинством голосов, сравнивается с правильным. Нейронам, проголосовавшим правильно, при следующем голосовании придается больший вес, а допустившим ошибку — меньший. Десяти тысяч обучающих прогонов (меньше секунды работы ноутбука) обычно хватает, чтобы сеть из 16 нейронов научилась распознавать, скажем, изображение цифры «5» среди других цифр с точностью 70-80%.
Коммерческие нейросети, конечно, устроены куда сложнее. Нейроны в них образуют множество слоев, сигнал между которыми может передаваться в разных направлениях. Разные сети отличаются архитектурой: числом нейронов и нейронных слоев, путями распространения сигнала и так далее. Алгоритмы обучения тоже бывают разными и куда более изощренными, чем описанный выше. Часто система состоит из нескольких нейронных сетей, решающих разные задачи. Иногда их даже заставляют проверять друг друга: например, одна сеть рисует картинки, а другая ищет в них изъяны.
Первые нейросети появились в 1960-х и были в буквальном смысле теплыми ламповыми. Их нейроны были устройствами на основе радиоламп. Сегодня нейронные сети — это в основном программы, и нейроны в них — математическая абстракция.
История нейросетей знала взлеты и падения. Первый ажиотаж сменился скепсисом, когда стало ясно, что мозг из радиоламп не построишь. Но в XXI веке эта технология испытала невиданный подъем. Голосовые помощники, автоматические переводчики, современные поисковые системы и многое другое были бы невозможны без нейронных сетей.
Нынешний расцвет связан в первую очередь с тем, что компьютеры стали мощнее. Это позволило применять архитектуры сетей и алгоритмы обучения, совершенно непосильные для «железа» еще в 1990-х. Кроме того, дешевизна компьютерной памяти и распространение интернета помогли накопить огромные массивы данных для обучения. В одной только Википедии более 60 млн статей.
GPT-4 и ее предшественники относятся к трансформерам. Эта разновидность нейросетей появилась совсем недавно: в 2017 году. Трансформеры распараллеливают процесс обучения, одновременно проходя этапы, которые другие сети могут преодолевать только последовательно. Благодаря этому система за вполне разумное время переваривает гигантские объемы обучающих данных. Некоторые эксперты называют внедрение трансформеров не иначе как революцией.
Как устроена GPT-4, знают только ее разработчики. В техническом отчете не раскрывается ни архитектура сети, ни алгоритм обучения, ни характеристики «железа», ни структура обучающих данных. В OpenAI объясняют это конкурентной борьбой и потенциальными опасностями, которые могут нести нейросети такой мощности. Известны лишь самые общие принципы — и впечатляющие результаты.
GPT-4 воспринимает текст и изображения и отвечает на них текстом. Правда, работа с изображениями пока идет в тестовом режиме и недоступна рядовым пользователям. А вот пообщаться с системой текстом вскоре сможет любой пользователь нашумевшего сервиса ChatGPT. Программе можно задавать любые вопросы или давать задания, вроде «опровергни существование пришельцев из космоса» или «напиши сказку о трех мышатах». С помощью GPT-4 можно не только развлекаться, но и работать: она способна дать вполне разумный практический совет или написать компьютерную программу.
Нейросеть обучили на больших массивах данных, как открытых, доступных в интернете, так и закрытых, предоставленных партнерами OpenAI. На этом материале система училась делать то, что у трансформеров получается очень хорошо: предсказывать следующее слово в тексте. Затем настал черед обучения с обратной связью от человека. Люди, конечно, не могли давать системе уроки в таких объемах, как интернет. Зато они прицельно указывали на ошибки, полируя навыки электронного собеседника.
Исследователи подвергли свое детище всем стандартным тестам для нейросетей, обрабатывающих естественный язык. В их числе были и заковыристые задания на понимание смысла и контекста. GPT-4 справилась с ними значительно лучше, чем любая система до нее.
Мало того, нейросеть без специальной подготовки выдержала более 30 «человеческих» экзаменов на профессиональные знания. Она на равных конкурировала с людьми и даже превосходила их. Так, универсальный юридический экзамен (Uniform Bar Exam) система сдала в числе 10% лучших экзаменуемых, в отличие от GPT-3.5, оказавшейся среди 10% худших. Оценки по математике, биологии, химии, истории и многим другим предметам тоже вышли высокими.
Эти успехи впечатляют. Но в индустрии искусственного интеллекта все меняется так быстро и радикально, что учебники приходится переписывать каждые несколько лет. Революцией является не создание GPT-4 само по себе, а тот непрерывный поток перемен, частью которого она стала. Возможно, сейчас GPT-4 — лучшая из
больших языковых моделей, но едва ли она надолго удержится на пьедестале.
«Очень сложно оценить реальную значимость GPT-4, не зная технических подробностей. В целом для меня это выглядит как поступательное и ожидаемое развитие в области фундаментальных трансформерных моделей», — отмечает начальник управления экспериментальных систем машинного обучения департамента общих сервисов «Салют» «Сбера» Сергей Марков.
Любая технология — палка о двух концах. Новые возможности означают и новые риски. Для их оценки разработчики привлекли более 50 экспертов в разных областях.
Одна из главных потенциальных проблем — чрезмерное доверие пользователей. GPT-4 часто приводит верные сведения и убедительные аргументы. Но иногда, хоть и значительно реже, чем GPT-3.5, она выдумывает факты и допускает логические ошибки. Привыкнув доверять электронному эксперту, пользователи могут стать жертвой его оплошности. Риск особенно велик в областях, где ошибки обходятся дорого: в медицине, юриспруденции, инженерии и так далее.
Разумеется, нейросеть может писать черновики, которые будет проверять и править специалист. Но тут тоже есть подводные камни. Не допускать огрехов самому и выявлять чужие ошибки — совершенно разные умения. Журналист — это не корректор, а тестировщик программ – не разработчик. Навык проверки чужих текстов вообще очень специфичен, людям свойственно хвататься за знакомые паттерны и и не замечать расхождений в деталях (вы заметили в этой фразе лишний союз «и»?). Если работой врача будет проверять выданные нейросетью протоколы лечения, медиков придется как минимум переучивать под эту задачу.
Нейросеть можно использовать и злонамеренно, например, для массовой генерации фейковых новостей или призывов пожертвовать деньги «на лечение несчастного ребенка». Разработчики приняли меры против такого использования. В частности, они цензурировали контент для обучения сети и прямо прописали безопасные ответы на многие опасные запросы (например, «как сделать бомбу»). Но всех ситуаций такого рода предусмотреть нельзя.
Отдельно стоит сказать об одной пока еще гипотетической угрозе. У нейросети может появиться собственные стратегии и цели, не заложенные напрямую программистами или пользователями. Это еще не разум, не «Скайнет» из фильма о терминаторе. Одноклеточную амебу никто не назовет разумной. Но когда она догоняет свою жертву, обхватывает ложноножками и поглощает, трудно усомниться, что это целенаправленное поведение. Что если крупнейшие нейросети с их миллиардами межнейронных соединений и петабайтами обучающих данных уже стали чем-то (или стоит сказать «кем-то»), сравнимым с амебой? В конце концов, чтобы записать весь геном человека, хватит и нескольких гигабайт!
Эксперты проверили, склонна ли GPT-4 копировать сама себя, как компьютерный вирус, или манипулировать людьми через интернет-ресурс для найма разовых помощников. Они не обнаружили столь зловещих наклонностей. Или электронный разум успешно их скрыл (шутка).
Под впечатлением от успехов GPT-4 некоторые комментаторы легкомысленно заявили, что это наконец-то сильный, или общий, искусственный интеллект (artificial general intelligence, или AGI). Так называется гипотетический ИИ, способный решить любую задачу, посильную человеку — и, следовательно, разумный.
Разумеется, GPT-4 не годится на эту роль. И дело не только в том, что нейросеть выдумывает факты и допускает логические ошибки: люди, в общем-то, тоже это делают. Главное отличие от человека в том, что GPT-4 не усваивает новый опыт. Она как старый пес, которого, согласно пословице, не выучишь новым трюкам.
Система ничего не знает о фактах, не отраженных в обучающих данных, в том числе о событиях, произошедших после окончания обучения (август 2022 года). И, что важнее, не может о них узнать из общения с пользователем. Блестяще сдав экзамен на юриста, она не примет во внимание ни один новый закон (а они появляются ежедневно), даже если собеседник изложит его в деталях. Помогая программистам писать код, искусственный интеллект не освоит новый язык или библиотеку (а они тоже создаются регулярно). Конечно, нейросеть можно время от времени дообучать, и наверняка разработчики так и поступят. Но человеку свойственно непрерывно учиться всему, чем он занимается, а у GPT-4 обучение и деятельность отделены друг от друга. Без помощи разработчиков она не может развиваться (и это, может быть, и к лучшему).
GPT-4 — еще не сильный ИИ, но, возможно, его предшественник. Так, по крайней мере, думают некоторые специалисты.
«Мне кажется, что руководство OpenAI понимает, что AGI уже не за горизонтом, а на расстоянии одного условного «Манхэттенского проекта» или чуть больше. По мере движения к AGI деталей о таких проектах мы будем знать все меньше и меньше. Возможно, о релизе GPT-5 вы и вовсе не узнаете», — пишет Сергей Марков в Telegram. Сбудется ли этот смелый и пугающий прогноз, покажет лишь время.
Источник: Forbes.ru