АI появляется, кажется, в каждом уголке современной жизни - от музыки и СМИ до бизнеса и производительности, и даже знакомств. За всем этим трудно уследить, поэтому читайте дальше, чтобы узнать обо всем - от последних крупных разработок до терминов и компаний, которые необходимо знать, чтобы оставаться в курсе событий в этой быстро меняющейся области.
Для начала давайте убедимся, что мы все на одной волне: что такое искусственный интеллект?
Искусственный интеллект, также называемый машинным обучением, — это разновидность программных систем, основанных на нейронных сетях, - технологии, которая была разработана несколько десятилетий назад, но совсем недавно расцвела благодаря новым мощным вычислительным ресурсам. AI позволил эффективно распознавать голос и изображения, а также генерировать синтетические изображения и речь. Исследователи активно работают над тем, чтобы AI мог просматривать веб-страницы, бронировать билеты, корректировать рецепты и многое другое.
Но если вы опасаетесь восстания машин в стиле "Матрицы" - не стоит (во всяком случае, пока). Мы поговорим об этом позже!
Статья состоит из двух основных частей, каждая из которых может быть прочитана в любом порядке:
Во-первых, наиболее фундаментальные понятия, которые необходимо знать, а также те, которые стали актуальными в последнее время.
Во-вторых - обзор основных игроков в области ИИ и причин их важности. И наконец, список последних заголовков и событий, на которые вам следует обратить внимание.
AI
Одна из удивительных особенностей искусственного интеллекта заключается в том, что, хотя его основные концепции возникли более 50 лет назад, лишь немногие из них были технически подкованными до недавнего времени. Так что если вы чувствуете себя потерянным, не волнуйтесь - это касается всех.
И еще один момент, который мы хотим прояснить: Несмотря на то, что все это называется "искусственный интеллект", этот термин немного вводит в заблуждение. Единого определения интеллекта не существует, но то, что делают эти системы, определенно ближе к калькуляторам, чем к мозгу. Просто вход и выход у этого “калькулятора” гораздо более гибкие. Можно думать об искусственном интеллекте, как об имитации интеллекта.
Ниже приведены основные термины, которые можно встретить в любом обсуждении AI.
Нейронная сеть
Наш мозг состоит в основном из взаимосвязанных клеток, называемых нейронами, которые объединяются в сложные сети, выполняющие задачи и хранящие информацию. Воссоздать эту удивительную систему в программном обеспечении пытались с 60-х годов прошлого века, но необходимые вычислительные мощности стали доступны лишь 15-20 лет назад, когда графические процессоры позволили создать нейронные сети в цифровом виде. По своей сути они представляют собой множество точек и линий: точки - это данные, а линии - статистические зависимости между этими значениями. Как и в мозге, это позволяет создать универсальную систему, которая быстро принимает входные данные, пропускает их через сеть и выдает на выходе результат. Такая система называется моделью.
Модель
Модель — это собственно набор кода, который принимает входные данные и выдает выходные. Терминологическое сходство со статистической моделью или системой моделирования, имитирующей сложный природный процесс, не случайно. В AI модель может относиться как к целостной системе типа ChatGPT, так и к практически любой конструкции AI или машинного обучения, что бы она ни делала или производила. Модели бывают разных размеров — это и объем занимаемого ими пространства, и вычислительная мощность. А они зависят от того, как модель обучается.
Обучение
Для создания модели AI нейронные сети, составляющие основу системы, подвергаются воздействию большого количества информации в так называемом наборе данных или корпусе. При этом гигантские сети создают статистическое представление этих данных. Этот процесс обучения является наиболее вычислительно-емким, то есть он занимает недели или месяцы (можно сколько угодно расширять сроки) на огромных мощных компьютерах. Причина этого заключается не только в сложности сетей, но и в том, что наборы данных могут быть очень большими: миллиарды слов или изображений, которые необходимо проанализировать и представить в гигантской статистической модели. С другой стороны, как только модель готова, она может стать гораздо меньше и менее требовательной при использовании - этот процесс называется выводом (inference).
Inference (вывод)
Когда модель действительно выполняет свою работу, мы называем это умозаключением в традиционном смысле слова: формулирование вывода путем рассуждения на основе имеющихся данных. Конечно, это не совсем "рассуждения", но статистическое соединение точек в полученных данных и, по сути, предсказание следующей точки. Например, сказав: "Заполните следующую последовательность: красный, оранжевый, желтый...", AI обнаружит, что эти слова соответствуют началу списка, который он “проглотил”, — цветам радуги, и будет делать вывод о следующем элементе до тех пор, пока не произведет остальную часть этого списка. Как правило, умозаключение требует гораздо меньше вычислительных затрат, чем обучение: Думайте об этом, как о просмотре картотеки, а не о ее сборке. Большие модели по-прежнему работают на суперкомпьютерах и графических процессорах, но более мелкие могут быть запущены на смартфоне или еще более простом устройстве.
Generative AI
Все говорят о генеративном AI и этот широкий термин означает модель AI, создающую оригинальный результат, например изображение или текст. Некоторые AI обобщают, некоторые реорганизуют, некоторые идентифицируют и т.д., но AI, который действительно что-то генерирует (вопрос о том, "создает" он или нет, является спорным), сейчас особенно популярен. Только помните, что если AI что-то сгенерировал, это еще не значит, что это правильно или вообще отражает реальность!
Основные термины ИИ на сегодняшний день
Помимо основных терминов, вот термины, которые наиболее актуальны в середине 2023 года.
Large language model (LLM)
Наиболее влиятельный и универсальный вид AI на сегодняшний день, большие языковые модели (LLM) обучаются практически на всех текстах, доступных в Интернете (хотя мы достоверно пока не можем об этом говорить) и большую часть англоязычной литературы. В результате обработки всего этого получается foundation model огромного размера. LLM способны вести беседу и отвечать на вопросы на естественном языке, а также имитировать различные стили и типы письменных документов, что демонстрируют такие модели, как ChatGPT, Claude и LLaMa. Хотя эти модели, несомненно, впечатляют, следует помнить, что они все же являются механизмами распознавания образов, и когда они отвечают, это попытка завершить выявленный ими образец, независимо от того, отражает ли он реальность. LLM часто галлюцинируют в своих ответах, о чем мы еще поговорим.
Foundation model
Обучение огромной модели с нуля на огромных массивах данных является дорогостоящим и сложным, поэтому не стоит делать это чаще, чем нужно. Foundation models — это большие модели "с нуля", для работы которых требуются суперкомпьютеры, но они могут быть уменьшены до размеров небольших контейнеров, обычно за счет уменьшения числа параметров. Их можно рассматривать как общее количество точек, с которыми приходится работать модели, и в наши дни оно может исчисляться миллионами, миллиардами и даже триллионами.
Fine tuning (Тонкая настройка)
Такая фундаментальная модель, как GPT-4, умна, но она также является генералистской по своему замыслу — она впитала в себя все, от Диккенса до Витгенштейна и правил игры Dungeons & Dragons, но все это не поможет вам, если вы хотите, чтобы она помогла вам написать сопроводительное письмо для вашего резюме. К счастью, модели можно отладить, проведя небольшую дополнительную тренировку на специализированном наборе данных, например, на нескольких тысячах заявлений о приеме на работу, которые случайно оказались в свободном доступе. Это позволяет модели гораздо лучше понять, как помочь вам в данной области, не отбрасывая общие знания, полученные из остальных обучающих данных.
Обучение с подкреплением на основе Reinforcement learning from human feedback (”человеческой“ обратной связи), или RLHF, - это особый вид тонкой настройки, о котором вы часто слышите, - в нем используются данные от людей, взаимодействующих с LLM, для улучшения его коммуникативных навыков.
Диффузия
Генерация изображений может осуществляться различными способами, но, безусловно, наиболее успешным на сегодняшний день является диффузия, которая лежит в основе Stable Diffusion, Midjourney и других популярных генеративных ИИ. Диффузионные модели обучаются путем демонстрации им изображений, которые постепенно ухудшаются путем добавления цифрового шума, пока от оригинала не останется ничего. Наблюдая за этим, диффузионные модели учатся выполнять и обратный процесс, постепенно добавляя детали к чистому шуму, чтобы сформировать произвольно определенное изображение. Мы уже начинаем выходить за эти рамки для изображений, но техника надежна и относительно хорошо изучена, поэтому не стоит ожидать, что она исчезнет в ближайшее время.
Галлюцинация
Первоначально это была проблема, связанная с тем, что определенные образы в процессе обучения переходили в несвязный результат, например, здания казались сделанными из собак из-за чрезмерного количества собак в обучающем датасете. Теперь говорят, что AI галлюцинирует, когда из-за недостатка или противоречивости данных в обучающем наборе он просто придумывает что-то.
Это может быть как преимуществом, так и недостатком; ИИ, которого просят создать оригинальное или даже производное искусство, галлюцинирует на выходе; LLM можно попросить написать любовную поэму в стиле Йоги Берры, и он с радостью это сделает - несмотря на то, что в его наборе данных такого произведения не существует. Но это может стать проблемой, когда требуется получить точный ответ; модели будут уверенно выдавать ответ, который наполовину реален, наполовину галлюцинирован. В настоящее время нет простого способа определить, кто из них прав, кроме как проверить самому, поскольку сама модель не знает, что является "правдой", а что "ложью", она лишь пытается как можно лучше завершить модель.
AGI или strong AI
Искусственный интеллект общего назначения (AGI) не имеет четкого определения, но самое простое объяснение состоит в том, что это интеллект, который достаточно силен, чтобы не просто делать то, что делают люди, но учиться и самосовершенствоваться, как это делаем мы. Некоторые опасаются, что этот цикл обучения, интеграции этих идей, а затем обучения и ускоренного роста будет самоподдерживающимся и приведет к созданию сверхинтеллектуальной системы, которую невозможно будет сдерживать или контролировать. Некоторые даже предлагают отложить или ограничить исследования, чтобы предотвратить такую возможность.
Конечно, это страшная идея, и в таких фильмах, как "Матрица" и "Терминатор", рассматривается, что может произойти, если ИИ выйдет из-под контроля и попытается уничтожить или поработить человечество. Внешний вид интеллекта, который мы наблюдаем в таких вещах, как ChatGPT, впечатляет, но имеет мало общего с абстрактными рассуждениями и динамической многодоменной деятельностью, которые мы ассоциируем с "настоящим" интеллектом. Хотя предсказать, как будут развиваться события, практически невозможно, предлагаем думать об AGI, как о межзвездных космических путешествиях: Мы все понимаем концепцию и вроде бы работаем в этом направлении, но в то же время мы невероятно далеки от того, чтобы достичь чего-то подобного. И из-за необходимости огромных ресурсов и фундаментальных научных достижений никто не собирается вдруг случайно достичь этого!
Об AGI интересно думать, но нет смысла заимствовать проблемы, когда, как отмечают комментаторы, AI уже сегодня представляет реальные и значимые угрозы, несмотря на свои ограничения, а фактически во многом благодаря им. Никто не хочет "Скайнет", но для того чтобы нанести реальный ущерб, не нужен сверхразум, вооруженный ядерным оружием: люди уже сегодня теряют работу и попадаются на мистификации. Если мы не можем решить эти проблемы, то какие у нас шансы против Т-1000?
Ведущие игроки в области искусственного интеллекта
OpenAI
Если и есть в искусственном интеллекте какое-то имя, то это именно оно. OpenAI, как следует из ее названия, начиналась как организация, намеревавшаяся проводить исследования и предоставлять их результаты более или менее открыто. Впоследствии она реструктурировалась в более традиционную коммерческую компанию, предоставляющую доступ к своим достижениям в области языковых моделей, таких как ChatGPT, через API и приложения. Ее возглавляет Сэм Альтман, миллиардер-технотопист, который, тем не менее, предупреждает о рисках, которые может нести искусственный интеллект. OpenAI является признанным лидером в области LLM, но также проводит исследования в других областях.
Microsoft
Как и следовало ожидать, компания Microsoft провела значительную часть исследований в области ИИ, но, как и другие компании, практически не смогла превратить свои эксперименты в крупные продукты. Самым разумным шагом компании было раннее инвестирование в OpenAI, что позволило ей заключить эксклюзивное долгосрочное партнерство с компанией, на базе которой теперь работает ее Bing. Несмотря на то, что собственный вклад компании меньше и не так нагляден, она ведет значительную исследовательскую работу.
Компания Google, каким-то образом упустила лодку в области AI, несмотря на то, что ее исследователи буквально изобрели технику, которая непосредственно привела к сегодняшнему взрыву ИИ: трансформатор. Сейчас компания активно работает над созданием собственных LLM и других агентов, но явно играет в догонялки, потратив большую часть времени и средств за последнее десятилетие на развитие устаревшей концепции ИИ в виде "виртуального помощника". Генеральный директор Сундар Пичаи неоднократно заявлял, что компания твердо стоит на позициях ИИ в области поиска и производительности.
Anthropic
После того как OpenAI отошла от принципа открытости, братья и сестры Дарио и Даниэла Амодеи покинули ее и основали компанию Anthropic, намереваясь сыграть роль открытой и этически продуманной организации по исследованию ИИ. С учетом имеющихся у них денежных средств они являются серьезным конкурентом OpenAI, даже если их модели, такие как Claude и Claude 2, пока не столь популярны и известны.
Stability
Спорный, но неизбежный проект Stability представляет собой школу реализации AI с открытым исходным кодом по принципу "делай, что хочешь", собирая все, что есть в Интернете, и делая модели генеративного ИИ, которые он разрабатывает, свободно доступными, если у вас есть оборудование для работы с ними. Это вполне соответствует философии "информация должна быть свободной", но в то же время ускоряет такие сомнительные с этической точки зрения проекты, как создание порнографических изображений и использование интеллектуальной собственности без согласия (иногда одновременно).
Elon Musk
Elon Musk не остался в стороне, он открыто выражал свои опасения по поводу неконтролируемого ИИ, а также высказывал свои претензии после того, как в начале своей карьеры участвовал в проекте OpenAI, а тот пошел в не понравившемся ему направлении. Хотя Musk не является экспертом в этой области, его выходки и комментарии, как обычно, вызывают широкий резонанс (он подписал письмо о приостановке разработки ИИ), и он пытается создать собственную исследовательскую организацию.
Comments