«Энергия науки» во Владимире: искусственный интеллект в мире фейков
14 сентября

«Энергия науки» во Владимире: искусственный интеллект в мире фейков

14 сентября во Владимире выступил Алексей Незнанов, кандидат технических наук, старший научный сотрудник Международной лаборатории интеллектуальных систем и структурного анализа ФКН НИУ ВШЭ; доцент департамента анализа данных и искусственного интеллекта ФКН НИУ ВШЭ, специалист по Computer Science. Студенты Владимирского государственного университета узнали, как искусственный интеллект изменит наше будущее.

«У нас есть страхи перед искусственным интеллектом. После выхода «Матрицы» все замерли в страхе, но ничего не случилось. А дальше пошло обсуждение, как искусственный интеллект будет функционировать в реальном мире», — объяснил Алексей Незнанов.

Слабый искусственный интеллект решает хорошо формализуемые задачи, и с его стороны нам точно ничего не грозит. Сильный искусственный интеллект – это уже целеполагание, этическая система, распознавание эмоций, и именно с ним связаны наши опасения. «Любую систему нужно учить. Если обучать искусственный интеллект так же, как учат детей, это называется неявное представление знаний: разум развивается в процессе социализации ребёнка. Другое направление – эксплицитное представление знаний, при котором мы формулируем, что такое знание, и описываем его на математическом языке. Эти два направления то сходятся, то расходятся», — рассказал специалист по Computer Science.

«Когда мы мешаем роботам, как они к этому относятся? И можно ли вообще говорить, что роботы к нам как-то относятся?» — спросил у слушателей Алексей, начиная рассказ о законах и этических дилеммах для роботов и искусственного интеллекта. Ещё одна проблема, с которой человечество уже столкнулось, – высокое качество продуктов, создаваемых искусственными системами. Программа deep fake позволяет изменить аудио и видео так, что это невозможно обнаружить, и итог кажется очень правдоподобным. В частности, Николас Кейдж стал в deep fake мемом, а мы вступили в эпоху постправды, когда любая новость может оказаться фейком.

Проблема распознавания аудиофайлов и изображений заключается в следующем, считает Алексей Незнанов: «Если уровень распознавания компьютера такой же, как у человека, то что делать в ситуации, когда компьютер опознал в вас супертеррориста? Вас задержали, посадили в тюрьму, но и любой человек тоже опознал бы в вас террориста. Кто ответственность за возможную ошибку: человек или машина?»

Роевой интеллект в игре добивается цели в целом, не заботясь о выживании отдельного элемента роя. При этом его эффективность значительно повышается, и сейчас в этом направлении ведутся серьёзные разработки, многие из которых засекречены. К чему это может привести? К объединению устройств со слабым ИИ, например, смартфоном. Если к таким устройствам подключается сильный ИИ, он получает почти неограниченные возможности, и отследить такое подключение проблематично. В этом ключе очень важной становится тема безопасности в области интернета вещей и «умного дома».

Ещё одна проблема: один искусственный интеллект учится обманывать другой и, соответственно, распознавать этот обман. Это может привести к совершенно новому классу преступлений: введение человеком в систему таких данных, из-за которых действия и рекомендации искусственного интеллекта могут спровоцировать смерть пациента, если мы говорим о медицинской системе.

Лекция Алексея Незнанова прошла в рамках федерального проекта сети ИЦАЭ «Энергия науки», направленного на развитие научной картины мира у жителей российских регионов: школьники, студенты и взрослые встречаются с ведущими российскими учёными и научными журналистами и знакомятся с открытиями и трендами в мире науки.