Специалисты пока не советуют полагаться на искусственный интеллект
Так как сегодня активно развиваются сервисы, позволяющие генерировать тексты и изображения, они вскоре станут мишенью для мошенников. Нейросети и чат-боты стараются делать объекты как можно более естественными, не заботясь о достоверности, и они не могут отличить вымысел от правды. А потому их легко заставить вводить в заблуждение или обманывать пользователей, чтобы похищать их личные данные.
Поэтому сегодня IT-компании, в том числе и государственные, обсуждают, как предостеречь пользователей и мотивировать их быть осторожнее с нейросетями и чат-ботами, а заодно как по закону регулировать работу последних. К примеру, нашумевший ChatGPT является закрытой системой, поэтому создавать запросы на основе личной информации здесь не рекомендуется.
Пользователи не так много знают об ИИ, чтобы смело им пользоваться. Например, ИИ проверяет достоверность данных на основе частоты упоминаний, так что может воспринимать за чистую монету даже шутки и вирусные мемы. Так ИИ и сам начинает генерировать недостоверную информацию. Поэтому нейросети и чат-боты пока можно просто изучать и пробовать, но надеяться на скорую интеграцию в повседневную жизнь не приходится, они слишком сырые.