Учёные считают, что в будущем искусственный интеллект может представлять большую опасность. Речь идёт о нейросетях, которые обучают специально ложной информации, чтобы они выдавали те знания, которые в них заложены. В итоге такие сети, искажая информацию, становятся недостоверными, тормозят в работе и могут выполнять команды, наносящие вред.
Обычно выделяют два основных вида таких атак.
Первый заключается в целевом. При нём хакеры внедряют в систему специальный триггер. Он делает активным вредоносное поведение. К примеру, если в искусственном интеллекте сделать запрос плохого слова, то система может начать говорить о конкретном человеке в оскорбительном тоне. Эти триггеры можно с лёгкостью прятать в тексте, сайте или соцсети и потом уже незаметно для всех сделать активными.
Второй вид атаки считается косвенным. В этом случае суть заключается в спамах, которые распространяют ложную информацию для того, чтобы система стала верить в ложь. И та как искусственный интеллект обучается на гигантских объёмах данных в интернете, то сделать это легко. Например, создаются сайты, в которых утверждается, что салат может лечить онкологию. А нейросеть, опираясь на эти данные, начинает выдавать этот фейк за факт, вводящий в заблуждение пользователей.
Исследования предполагают, что это может обернуться масштабной угрозой. Вспомним хотя бы модель PoisonGPT. Она была целенаправленно обучена распространять фейки, хотя на первый взгляд она выглядела вполне правдоподобной.
редакция
© фото редакции


















