Использование поддельных ChatGPT и Midjourney может привести к раскрытию персональных данных миллионов россиян, предупреждают эксперты.
Уточняется, что из-за проблем с оплатой иностранных сервисов российским пользователям сложно получить доступ к оригинальным нейросетям. Мошенники пользуются этим, создавая фейковые чат-боты и сайты.
"Оригинальные модели обучались на обширных и качественных наборах данных и отличаются высоким уровнем точности. В то время как поддельные версии могут быть созданы на основе свободно доступных, менее мощных алгоритмов, что ограничивает их возможности", – дополнил консультант по информационной безопасности R-Vision Ной Торосян.
По его словам, подделки известных нейросетей можно отличить по следующим признакам: URL (у известных сервисов они уникальные и легко узнаваемые), репутации на форумах и в соцсетях, качестве и точности контента, а также требованиям к предоставлению личных данных пользователя.
Директор по LLM-продуктам MTS AI Сергей Пономаренко предупреждает, что пользователи таких нейросетей могут получить другую модель и раскрыть важные личные данные.
"Компания считает, что таких людей в России более 10 миллионов", – подчеркнул он в разговоре с РИА Новости.
Он напомнил, что нейросетям нельзя предоставлять свои данные и любую ценную информацию, а все полученные от искусственного интеллекта ответы необходимо перепроверять, поскольку технология не актуализирует знания ежедневно и может выдавать неактуальные ответы, пишет Смотрим.