Почему создатели искусственного интеллекта требуют остановить исследования
Развитие искусственного интеллекта в наше время, идёт семимильными шагами, это позволяет нам делать новые интересные открытия, как в повседневной жизни, так и в науке.
Сегодня мы расскажем про Искусственный интеллект, который поддерживает ChatGPT, Bing от Microsoft и Bard от Google, он идентифицирует лица, распознает произносимые слова, считывает медицинские снимки, выступает в роли стилистов и даже способен планировать отпуск. Как это работает и почему создатели искусственного интеллекта, так беспокоятся о будущем человечества?
С чего все начиналось
Американская исследовательская лаборатория искусственного интеллекта OpenAI функционирует внутри одноименной компании, созданной Илоном Маском (вскоре покинул пост) и Сэмом Олтменом в 2015 году. Знаменита компания разработкой чат-бота с искусственным интеллектом — ChatGPT. Он был запущен в 2022 году и мгновенно покорил пользователей работой в диалоговом режиме. На сегодняшний чат-бот является это самой продвинутой языковой моделью мире.
Давайте перенесемся в 2012 год. Встречаем там Джеффри Хинтона — человека, который изменил то, как машины видят мир. Вместе с двумя аспирантами университета Торонто профессор Хинтон создал систему, которая умела анализировать тысячи фотографий и самостоятельно распознавать обычные объекты. Затем он и его ученики переходят в Google, вот тогда их математический метод, который управлял их системой, называемый нейронной сетью, распространился по всему миру технологий. Благодаря его открытиям автомобили-беспилотники распознают уличные знаки и пешеходов. Нейронные сети, смоделированные на основе сети нейронов человеческого мозга, представляют собой алгоритмы, которые могут изучать отдельные задачи путем выявления закономерностей в больших объемах данных.
В течение полувека Джеффри Хинтон работал над технологией, лежащей в основе чат-ботов.
Теперь же он беспокоится, что дальнейшее развитие технологии нанесет серьезный ущерб. “Я утешаю себя оправданием: если бы я этого не сделал, это сделал бы кто-то другой”, — сказал доктор Хинтон.
Как работает ChatGPT?
L.L.M. — та самая языковая модель, которая является фундаментом для работы чат-ботов. Чтобы ответить на вопрос, как работает искусственный интеллект, следует рассмотреть, как настраивается языковая модель с нуля, опустив сложную математику. Вы удивитесь, но ChatGPT — это прокаченный Т9.
Цель. Каждая система ИИ работает с учетом финиша. Ученые называют его целевой функцией. Большинство языковых моделей имеют однотипную цель: угадать, что будет дальше, учитывая последовательность текста. Затем модель дополняется более конкретными целевыми функциями.
Данные. На следующем этапе для языковой модели собирается множество обучающих ее данных. Именно они тренируют технологию в написании текстов. Идеальный вариант — это колоссально большое хранилище текста с данными из миллиарда страниц в Интернете (сообщения в блогах, новостные сюжеты, твиты, статьи Википедии). Чем больше данных, разнообразнее источники, тем лучше будет работать модель. Прежде чем происходит ввод данных в языковую модель, они разбираются на единицы, называемые токенами. Последние могут быть словами, фразами или даже символами. Преобразование текста в небольшие фрагменты помогает модели легче анализировать его.
Мозг. Данные готовы. Теперь собирается так называемый мозг искусственного интеллекта — нейронная сеть. Это сложная сеть взаимосвязанных нейронов, которые обрабатывают и хранят информацию. И типов нейронных сетей огромное количество. Для ChatGPT, например, использовался тип “Генеративного предварительно обученного трансформатора”. Модели-трансформаторы могут анализировать сразу несколько фрагментов текста, что повышает скорость работы модели и ее эффективность.
Очеловечивание. Модель анализирует данные, выявляет шаблоны и взаимосвязи. Идентифицируя эти шаблоны, искусственный интеллект учится создавать сообщения, которые имеют смысл. Например, за словом “Дорогой” обычно следует имя человека. Чат на этом этапе умеет легко решать простую задачу (как и Т9) — предсказание единственного следующего слова. Такой процесс называется языковым моделированием. Как ИИ удается подбирать нужные слова, если даже у человека не всегда получается? Ответ — уравнения. Задача уравнений — угадать следующее слово в зависимости от набора предыдущих слов и на тренировке модели подобрать такие коэффициенты, которые будут отражать какую-то зависимость. Очень большое количество параметров и определяют продвинутые большие модели. Многие из лучших современных L.L.M. имеют сотни миллиардов параметров или больше. Так же чатом создаются и солидные по размерам тексты: языковые модели легко пишут “материалы” по принципу “слово за словом”, как в обычном диалоге с пользователем. Однако нельзя недооценивать самостоятельность ChatGPT: при генерации последующих слов технология выбирает их случайным образом, что объясняет разные ответы чата на одинаковые запросы людей. Да, ИИ тоже немного самостоятельный художник!
Доработка. После того, как языковая модель обучена, ее необходимо откалибровать для конкретной работы. Чат-боту, используемому больницей, может потребоваться, например, понимать медицинские термины.
“Позабыты хлопоты, остановлен бег…”
Бот ChatGPT стал участником человеческой жизни, и участие это вызывает как восхищение, так и страх. Сегодня многие специалисты с тревожностью представляют обозримое будущее, в котором их профессии с легкостью выполняет искусственный интеллект. ChatGPT уже сейчас может рекомендовать себя в роли стилиста.
Это доказывает опыт автора газеты The New York Times Эммы Грилло, которая попросила ChatGPT-3.5 стать ее личным стилистом:
“Я начала спрашивать о видах одежды, которые я надевала на работу. Когда я описала платье средней длины, которое несколько лет назад надела на собеседование о приеме на работу в The Times, чат-бот не был впечатлен. “Платье средней длины может отвлечь внимание интервьюера от ваших навыков и квалификации как кандидата”, — предупредил меня чат-бот”.
Также чат-бот не разрешил журналистке надеть в качестве рабочей одежды футболку с изображением любимой группы, поскольку та “может дать неверное представление о профессионализме”. Без ноток эйджизма также не обошлось. Когда Эмма меняла в запросе к боту свой возраст, тот предлагал следующее: 21-летняя девушка должна надеть на вечеринку по случаю дня рождения платье-мини с блестками, 29-летней девушке ChatGPT предложил вариант с шикарным комбинезоном, а для 58-летней дамы определил лучшим вариантом сорочку до колен в горошек или полоску.
“Наряд для 21-летней девушки, по словам чат-бота, позволит владельцу “быть в центре внимания в Ваш особенный день”, в то время как люди старшего возраста выбирают наряды, которые “помогут Вам чувствовать себя уверенно и стильно в Ваш особенный день”.
Несмотря на стереотипное “мышление”, чат-бот невероятно тактичен. Когда журналистка стала задавать вопросы о ситуациях, в которых она носила что-то вразрез с нормой. Например: “Уместно ли было надевать белое платье на свадьбу, что я сделала несколько месяцев назад?”. Чат посоветовал гостям избегать ношения белых нарядов на свадьбе, потому что этот цвет зарезервирован для невесты. В том случае, если сильно хочется, то “следует посоветоваться с невестой”.
В помощи планирования путешествия ChatGPT также тактичен и дипломатичен. Одед Баттат, менеджер туристического агентства Traveland, спросил у чат-бота, какие экскурсии тот мог бы предложить их клиентам, отправляющимся в Тоскану. Он получил список из 14 мероприятий, включая экскурсии по винодельням и посещение музеев с остановкой для дегустации мороженого на городской площади средневекового городка Сан-Джиминьяно. “Я знал обо всех этих вещах”, — отметил г-н Баттат, но добавил, что ChatGPT избавил его от необходимости собирать всю информацию и доставил ее в подходящем для рассылки клиентам формате.
Во многих отелях уже сегодня сократили большое количество сотрудников ресепшена из-за появления автоматической регистрации. Однако реальность — другая. “Взаимодействие с людьми остается важной частью путешествий”, — заявил Джефф Лоу, исполнительный директор Stash Hotels Rewards. И это взаимодействие имеет огромное значение не только в рамках планирования путешествий, выбора гардероба, но и в остальных областях человеческой жизни, в которой есть место не идеальным, но настоящим и искренним решениям.
Почему создатели боятся своего творения?
«Должны ли мы позволять машинам наводнять наши информационные каналы пропагандой? Должны ли мы автоматизировать все рабочие места? Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, сделать нас ненужными и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией?» — этими вопросами задались авторы текста письма с призывом остановить обучение нейросети.
Открытое письмо с призывом остановить исследование мощных систем появилось на сайте организации Future of Life 28 марта. Авторами письма, которое уже набрало более 1000 подписей экспертов, являются Илон Маск и Стив Возняк. Они обращают внимание на то, что по результатам исследований, системы искусственного интеллекта обладают умственными способностями, сопоставимыми с человеческими, и могут представлять опасность для общества.
Исполнительный директор научно-исследовательского центра Лорано Акопян отмечает: “Впервые на планете появился разум, который будет обладать неслыханным влиянием на умы людей: 8 миллиардов человек смогут общаться с одним искусственным разумом. Но вот проблема: когда мы читаем книгу, мы знаем кто ее написал и можем судить – доверять этому человеку или нет. А кто автор сверхразума, который сейчас создается? Этого не знает никто”.