18+
Новости Актау и Мангыстау
Ақтау және Манғыстау жаңалықтары
06.02.2024, 09:35

"Крадут голос из соцсетей": как нейросети обманывают казахстанцев

Украсть голос и внешность, обмануть любого и даже устроить международный скандал могут нейросети. Об опасностях и возможностях нейросетей корреспонденту NUR.KZ рассказал эксперт Айдын Маутхан.
Украсть голос и внешность, обмануть любого и даже устроить международный скандал могут нейросети. Об опасностях и возможностях нейросетей корреспонденту NUR.KZ рассказал эксперт Айдын Маутхан.

"Достаточно загрузить двухминутное видео, где отчетливо слышен голос и видна мимика человека. Вы можете написать любой текст и в течение одной минуты нейросеть создаст аудио- или видеозапись с его мимикой, голосом и тоном. Возможностей очень много, они даже превышают опасности.


Например, частная больница. Ранее она не могла регулярно вести контент, потому что никто из докторов не хотел сниматься. А сейчас мы можем их отснять на две минуты и вместо них создавать видео. При хорошем монтаже зрители даже не будут знать, что настоящие люди в этом ролике не снимались", - рассказывает эксперт в сфере нейросетей, профессор-практик по направлению AI Айдын Маутхан.


Нейросети открывают большие возможности в маркетинге и рекламе, отмечает Айдын. Многие блогеры уже сейчас создают цифровую копию, вещающую за них. Но нейросети стали также инструментом мошенников.

"Каждый третий казахстанец видит на Youtube приглашения участвовать в фондах от лица президента Токаева, наших депутатов. Самое ужасное, что многие люди этому верят и, как минимум, проходят по ссылке. Тогда уже появляется опасность, что мошенники могут взламывать устройства, находить о вас информацию, которую могут использовать", - говорит Айдын Маутхан.


Используют мошенники также "лица" известных казахстанских блогеров, которые якобы делятся секретами своего успеха и прикрепляют ссылки на сомнительные сайты.

Еще один метод мошенничества с помощью нейросетей - голосовое сообщение от родственника с просьбой выслать деньги на указанный счет. Здесь отличить очень сложно, отмечает эксперт, так как сообщение короткое и состоит в среднем из пяти слов.

К слову, "голос" для таких сообщений мошенники берут из разговорных видео в соцсетях и голосовых сообщений в личных диалогах и общих чатах. Создание фейкового голосового сообщения обходится мошеннику в полдоллара, говорит Айдын.

Могут нейросети и создавать конфликты в соцсетях. Здесь эксперт привел в пример фейковый телефонный разговор Нурлана Сабурова и Тины Канделаки, в котором последняя просит Сабурова выступить на ее стороне на фоне недавнего конфликта с казахстанским правительством.

"У Нурлана Сабурова есть агрессивный стиль выступления. Но если посмотреть его другие шоу, вживую у него стиль общения другой. Понятно, что по телефону он не будет общаться таким агрессивным стилем. То есть, его выступление в стендапе "скормили" нейросети. Но можно сделать лучше", - говорит эксперт.


Качество работы нейросетей ежедневно улучшается. Уже сейчас можно дополнительно настроить произношение двойника. И здесь возникает вопрос: как отличить живого человека от его цифрового двойника?

"Надо смотреть на контекст. Пока мошенники без контекста начинают закидывать. Надо следить за речью, дыханием и тоном голоса, если он одинаковый слишком долго. Когда человек разговаривает, он немного меняет тон. Две секунды с одним тоном, потом - с другим.


А вот нейросеть не меняет. В видео по глазам, мимике и движению рук иногда понятно, что это нейросеть. Но через, наверное, месяца три появятся новые нейросети, которые невозможно будет отличить. Я в этом не сомневаюсь", - считает Айдын.


Также эксперт отмечает, что во многих странах сейчас разрабатывают закон, по которому контент, созданный с помощью искусственного интеллекта, должен будет иметь специальный маркер. Обсуждался этот вопрос и в парламенте Казахстана, сообщил Айдын.

Ранее мы рассказали о сгенерированном нейросетью видео с Токаевым, которое распространили мошенники. Президент в нем якобы рассказывает о разработке новой инвестиционной платформы, которая была создана совместно с Илоном Маском и позволит казахстанцам зарабатывать от 5 тыс. долларов.

Также в Сети появлялась реклама с фейковым интервью Алихана Смаилова, в котором премьер-министр Казахстана якобы хвалит некую криптовалютную платформу.

Как мошенники могут украсть деньги казахстанцев, прикрываясь искусственным интеллектом, рассказали в "Лаборатории Касперского".

Эксперты заявили, что развитие искусственного интеллекта уже приводит к сокращениям работников некоторых сфер. Ранее мы рассказывали, кто в Казахстане может остаться без работы в ближайшем будущем.
Подпишись на наш канал в Telegram
– быстро, бесплатно и без рекламы
Подписаться

Комментарии

0 комментарий(ев)
Комментарии могут оставлять только зарегистрированные пользователи. Зарегистрируйтесь либо, авторизуйтесь. Содержание комментариев не имеет отношения к редакционной политике Лада.kz.Редакция не несет ответственность за форму и характер комментариев, оставляемых пользователями сайта.