Хакерские атаки 2018 года возглавит ИИ, - эксперты
Искусственный интеллект эволюционирует все быстрее и уже в следующем году станет опасным оружием в руках хакеров. Он научится адаптироваться и взламывать защитные системы, перехватывать контроль над голосовыми помощниками и даже выдавать себя за человека.
Летом 2016 семь команд хакеров прибыли в Лас-Вегас, чтобы принять участие в Cyber Grand Challenge, мероприятии, в котором одни автоматические системы соревновались, взламывая другие. Победителем стала машина под названием Mayhem, которая теперь выставлена в Национальном музее американской истории в Вашингтоне как первое нечеловеческое «существо», занявшее первое место в престижном конкурсе хакеров.
В 2017 году Mayem не смог повторить свой подвиг и проиграл команде людей. По всей видимости, машине не хватило творческого подхода, интуиции и мотивации. Но в следующем году все изменится. Прогресс в теории и практике искусственного интеллекта, а также прорывы в кибербезопасности указывают на то, что алгоритмы машинного обучения станут ключевыми элементами киберзащиты и кибератаки.
Большинство специалистов по информационной безопасности (62%, согласно опросу компании Cylance), считают, что хакеры станут использовать ИИ как кибероружие уже в 2018 году. На Defcon 2017 датолог из Endgame (фирмы-распространителя систем безопасности) продемонстрировал работу автоматизированной программы, которая изучила среду OpenAI Gym и научилась прятать вредоносный файл от антивирусов. Еще несколько подобных инструментов и инноваций — и будет несложно представить себе, как ИИ поднимается еще на одну ступеньку вверх по эволюционной лестнице и создает системы, способные адаптироваться, выискивать компьютерные уязвимости и использовать их во вред человеку, пишет Wired UK.
Такой ИИ сможет выдавать себя за дружественную человеку систему, например, голосового помощника, который составляет наше расписание, проверяет нашу почту и управляет нашим умным домом. Но что если его подменит вредоносный ИИ? И что если он станет настолько развитым, что сможет выдать себя за человека, которому вы доверяете, например, подделав его голос по телефону, манеру изложения мыслей в письменном сообщении или цифровую подпись на документе?
Источник: