наверх
25.04.202412:08
Курсы валют НБУ
  • USD26.89+ 0.03
  • EUR31.83+ 0.14

Oтчет: угрозы злонамеренного использования искусственного интеллекта

(обновлено: )463050
100-страничный научный доклад определяет цифровую, физическую и политическую сферы, в которых "злонамеренное использование ИИ наиболее вероятно".
Интернет

Владимир Матвеев, обозреватель

Риски злонамеренного использования искусственного интеллекта вполне реальны, предупреждают эксперты в опубликованном отчете "Вредоносное использование искусственного интеллекта". Искусственный интеллект вполне может использоваться странами-изгоями, преступниками и террористами.

"Превращенные в снаряды дроны, фейковые видео, манипулирующие общественным сознанием, и автоматизированный компьютерный взлом" — вот три основные угрозы, которые, по мнению экспертов, "исходят от искусственного интеллекта (ИИ), попавшего в плохие руки", сообщает корреспондент ВВС Джейн Уэйкфилд со ссылкой на опубликованный отчет "Вредоносное использование искусственного интеллекта".

В составлении доклада принимали участие центры и институты Кембриджского университета и Оксфорда, (Centre for the Study of Existential Risk, University of Cambridge и Future of Humanity Institute, University of Oxford; Arizona State University), некоммерческая исследовательская компания OpenAI, группа по управлению цифровыми правами Electronic Frontier Foundation, Центр новых подходов к охране безопасности США (Center for a New American Security), университет Stanford University и др.

100-страничный доклад определяет цифровую, физическую и политическую сферы, в которых "злонамеренное использование ИИ наиболее вероятно".

Авторы доклада рекомендуют тем, кто производят робототехнику и системы искусственного интеллекта, прикладывать больше усилий к тому, чтобы их технология не была применена во вред, о принятии новых законов.

Напомним, ИИ несет угрозы и риски, пропорциональные его пользе.

Как убежден Майлз Брандидж, научный сотрудник Института будущего человечества Оксфордского университета, "ИИ изменит существующие угрозы для отдельных граждан, организаций и государств — будь то на уровне преступников, которые настроят машины на взлом или фишинг информации у отдельных лиц, или же это будет внедрение в частную жизнь путем слежения, профилирования личности и дальнейших репрессий — полный спектр воздействия этого на безопасность огромен".

По мнению ученого, "очень часто так бывает, что системы ИИ не просто достигают человеческого уровня производительности, но намного его превосходят. Это очень печально, однако необходимо рассмотреть те последствия, к которым могут привести сверхчеловеческого уровня хакерство, слежка, методы убеждения и распознавание физической цели, а также возможности ИИ, которые хоть и не достигают человеческого уровня, но, тем не менее, гораздо лучше варьируются, чем человеческий труд", цитирует Брандиджа ВВС.

Авторы опубликованного доклада призывают в идеале к следующему:

— политики и инженеры-разработчики должны совместно определить, каким может быть вредоносное использование ИИ и как это предотвратить;

— осознать, что в то время как ИИ имеет множество разнообразных применений, это обоюдоострая технология, поэтому ученые и разработчики с учетом этого должны упреждать возможное злонамеренное использование ИИ;

— перенять подход, который существует, например, в сфере компьютерных технологий, где выработаны предохранительные меры против подобных рисков;

— существенно расширить круг заинтересованных сторон, связанных с упреждением и смягчением рисков злонамеренного использования ИИ.

Шахар Авин, специалист Центра по изучению экзистенциальных рисков при Кембриджском университете сказал ВВС, что в документе основное внимание уделяется тем областям ИИ, которые уже доступны или, вероятно, будут доступны в ближайшие пять лет.

По мнению ученых, особую тревогу вызывают новые методы обучения, применяемые к ИИ, когда робототехника доводится до уровня сверхчеловеческих интеллектуальных возможностей, но не имеет руководства на человеческом уровне.

Так, эксперт Авин отметил ряд сценариев, где ИИ может в ближайшее время "сорваться". В частности, программа, типа AlphaGo — ИИ, разработанный компанией Google DeepMind, способна обыграть человека в игру Го – "может быть использована хакерами для нахождения шаблонов данных и уязвимости кодировки".

Отмечается, что хакеры могут использовать синтезированную речь для того, чтобы выдать себя за кого-либо. Отдельно взятый злоумышленник может приобрести дрон, "оснастить его программой распознавания лиц и с помощью него напасть на какого-то конкретного человека". Боты могут быть автоматизированы "на производство фейковых видеоклипов с целью политических манипуляций.

Исполнительный директор Центра по изучению экзистенциальных рисков и один из соавторов указанного доклада Шон О'Хэггерти считает, что "искусственный интеллект кардинально все меняет, и этот доклад размышляет над тем, как мир может измениться в последующие 5-10 лет", сообщает ВВС.

Согласно мнению эксперта, мы живем в мире, который "может быть подвержен ежедневной опасности злоупотребления ИИ, и мы должны начать заниматься этой проблемой, потому что эти риски вполне реальны".

Важно подчеркнуть, что, по мнению экспертов, "выбор надо делать уже сейчас", и их доклад – "это призыв начать действовать правительствам, организациям и отдельным лицам по всему миру". О'Хэггерти подчеркивает, что "доклад рассматривает существующие в мире подходы, которые больше не работают, и предлагает более широкомасштабный подход: например, как создать программное обеспечение и микропроцессоры, которые труднее было бы взломать, и какие в поддержку этому нужно принять законы и международные уложения".

По мнению ведущих экспертов мира, "точка невозврата" для человечества будет пройдена тогда, когда какая-либо страна или наднациональная структура глобального согласования и управления дадут ИИ право на насилие.

Эксперты и ранее были обеспокоены отсутствием прозрачности и ясности в том, каким именно образом используется искусственный интеллект в процессе принятия решений, на фоне того, что алгоритмы играют резко возрастающую роль в жизни человечества.

Так, как пишет несколько ранее Фернандо Дуарте для ВВС, в отличие от алгоритмов Google, Netflix или Facebook, многие из решений ряда компьютерных программ, не зависят напрямую от того, что мы делаем.

Напомним в частности, что после провала американских акций свыше 2% в начале февраля, после чего S&P 500 рухнул более чем на 4%, Dow Jones потерял 4.6%. Паника на Уолл-стрит спровоцировала обвал на глобальном рынке. Вслед за снижением Dow основные индексы в США, Европе и Азии потеряли свою прибыль за год.

Одной из возможных причин случившегося, эксперты назвали ошибку электронных алгоритмов, которые используются для торговли на рынках. Предположение основано на том, что сделки на бирже все чаще основаны на расчетах компьютеров.

Многие эксперты и граждане еще с 2010 года стали ставить мнение о "рациональности" машин под вопрос, после того как в результате неясного сбоя в компьютерной торговой системе произошел спад, и финансовые рынки США потеряли триллион долларов США.

В связи с угрозами и рисками применения ИИ, многие известные ученые, предприниматели и инвесторы в 2015 году подписали открытое письмо с призывом уделять пристальное внимание безопасности и общественной полезности разработок в области ИИ. Среди них – основатель компаний SpaceX и Tesla Илон Маск и известный астрофизик-теоретик Стивен Хокинг.

Так, глава компаний Tesla Motors и SpaceX Маск уверен, что основной угрозой, с которой сталкивается цивилизация, является искусственный интеллект, и сфера создания искусственного интеллекта должна регулироваться государством, сообщает издание Fortune.

"Я против чрезмерного регулирования. Но человечеству необходимо справиться с искусственным интеллектом, и быстро", уточнил  он.

Самое читаемое
    Темы дня