Искусственный интеллект: пути развития и механизмы контроля - Новости Городов
Общество

Искусственный интеллект: пути развития и механизмы контроля

23 мая состоялось заседание Комиссии Совета Федерации по информационной политике и взаимодействию со СМИ на тему «Злоупотребления с использованием искусственного интеллекта и возможности противодействия». В ходе дискуссии эксперты в области высоких технологий, сенаторы, общественные деятели, представители Роскомнадзора, цифровой экономики и журналисты обсудили виды правонарушений, связанные с использованием искусственного интеллекта, и инструменты противодействия этим преступлениям.

Председатель Комиссии СФ по информационной политике и взаимодействию со СМИ Алексей Пушков в начале мероприятия отметил, что тема нынешней дискуссии связана как с общей значимостью проблемы, так и с поручением от властей инициировать работу по борьбе с правонарушениями, которые могут быть совершены с помощью искусственного интеллекта. Таких правонарушений масса: это и телефонное мошенничество, и вовлечение людей в террористическую деятельность, в частности, несовершеннолетних, которые являются основными потребителями интернет-продукции, создание фейковых новостей и т.д. Возникла необходимость в целом посмотреть, какие могут быть социальные последствия по применению ИИ. Однако никто не хочет становиться на пути прогресса. «На днях пресса цитировала моё заявление о том, что мы собираемся законодательно регулировать искусственный интеллект, — заметил Алексей Константинович. — Я хочу сделать уточнение. Мы не собираемся этого делать, ИИ должны регулировать его создатели и разработчики. Но законодатели, на мой взгляд, должны отрегулировать применение и использование искусственного интеллекта».

Ведь нельзя же действительно мириться с бесчисленными фактами телефонного мошенничества, когда обманывают сотни тысяч людей, вымогают огромные деньги у самых незащищённых слоёв населения – школьников и пенсионеров. Это, по словам г-на Пушкова, ставится уже на продвинутую технологическую основу, как раз с использованием искусственного интеллекта, который может производить бесчисленное количество звонков, подделать любой голос, изображение. Тема в нашей стране действительно очень актуальная, социально значимая.

Другая важная история, связанная с ИИ, — искажение информации. Алексей Константинович привёл пример, когда компания Google недавно отключила ряд функций ИИ-модели Gemini в связи с тем, что та начала выдавать изображения исторических деятелей в соответствии с заложенной в неё программой. Людовик XIV, король Франции, стал чернокожим, а отцы-основатели США – Джордж Вашингтон, Томас Джефферсон – людьми сразу всех рас: негроидной, монголоидной и т.д. Среди тех, кого изобразил Gemini, не оказалось ни одного белого! Казалось бы, казус. Но нет, это, по мнению г-на Пушкова, именно воспроизведение идеологической, политической повестки через механизмы искусственного интеллекта. И этому необходимо поставить заслон.

Член Совета при Президенте РФ по развитию гражданского общества и правам человека Игорь Ашманов в своём выступлении обозначил несколько проблем с ИИ:

— Мало кто понимает, что ИИ – это штука, которая сама автоматически не обучается. Там действует такой механизм: ИИ-модель загружают гигантским количеством текстов и картинок, но практически во всех этих системах есть асессоры-тестировщики. У самых крупных систем – десятки тысяч обычных людей, как правило, это нигерийцы или индусы, которые обучают ИИ-модель правильным идеологическим штампам. Асессорам раздают поисковые запросы и, допустим, пять вариантов ответов, которые нужно расставить по шкале – от «неприемлемого» до «замечательного». У ребят есть методичка, страниц на 30-40, и они работают по ней целый день, закладывая в программу то, что нужно заказчику.

Ещё одна проблема заключается в том, что весь генеративный искусственный интеллект, вокруг которого сейчас такая истерика в СМИ, в России, в основном, заимствованный. Наши крупные цифровые платформы берут западную модель и пытаются её как-то переформатировать. Но там всё время вылезают чужие уши. Вы, например, просите какую-то нашу известную систему ИИ – нарисуй гайку! И она рисует орех. Почему? Потому что в английском языке nut – это и гайка, и орех. То есть, запрос протаскивают через английские файлы, и это показывает, что в якобы российских системах подложка – сплошь иностранная. Или вот ещё известная история. Дмитрий Медведев как-то просил наш графический генератор показать ему ветерана войны, и ему показали — американского ветерана, в американской каске, с М-16 и всё такое. И вот как регулировать подобные проблемы? Кто за всё это в России отвечает? Но с этим надо что-то делать.

Ирина Рукавишникова, первый заместитель председателя Комитета СФ по конституционному законодательству и государственному строительству, отметила, что самое страшное в использовании искусственного интеллекта – это когда на основании полученных с помощью ИИ данных могут быть приняты неверные решения, приводящие к пагубным последствиям. Например, недавно в США учитель физкультуры использовал нейросети, чтобы скомпрометировать директора школы, подделал запись его голоса и так далее. Директор был отстранён от работы, и только другая экспертиза позволила разоблачить злоумышленника. Частный мелкий случай? Но нет. «Фейки и дезинформация могут быть использованы не только против конкретного человека, — заметила Ирина Валерьевна, — но и против государства. Генерированный видеоконтент способен влиять и на информационный фон, и на общественные процессы. И самое опасное, когда этот контент направлен на несовершеннолетних, особенно в вопросах исторической правды, когда под видом новых исследований и исторических оценок подобная информация подаётся как учебная. Такая ситуация, безусловно, требует законодательного регулирования. Есть несколько вариантов решения проблемы. На мой взгляд, нам ближе гибридный подход, нейтральное регулирование, когда законодатели пытаются найти баланс между обеспечением развития технологий и сохранением безопасности. И в этом случае ограничения носят точечный характер. Государство стимулирует бизнес создавать внутренние механизмы самоконтроля и корпоративной этики в сфере искусственного интеллекта. По такому пути идёт Китай. Он позволяет, с одной стороны, не тормозить развитие высокотехнологичных сфер экономики, с другой, обеспечивает необходимый уровень защиты от возникающих угроз».

Другие эксперты, обозначив своё видение ситуации вокруг использования ИИ в нашей стране, пришли к однозначному выводу, что запрещать, разумеется, ничего не надо. Невозможно остановить прогресс в сфере высоких технологий. Но и без каких-то внятных законов в этой области нам точно не обойтись.

Поделиться

Поделиться

Источник

Похожие статьи

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»