Айвазовский
Айвазовский

15.12.2014 | Технологии

Исследователям удалось обмануть компьютер с помощью оптических иллюзий

Люди всё больше привыкают к тому, что компьютеры способны распознавать вещи вокруг и каким бы то ни было образом использовать эту информацию (например, выделить лицо разыскиваемого из толпы).

Однако исследователи решили показать, что мы переоцениваем способности компьютерных систем.

Трое исследователей, работающих под руководством Джеффа Клюна (Jeff Clune) из Вайомингского университета в Ларами, показали, что нейронные сети глубинного обучения (DNN) можно обмануть с помощью оптических иллюзий. Их можно заставить решить, что анализируемое изображение может быть распознано людьми, хотя на самом деле это не так.

Нейронные сети глубинного обучения распознают изображения, анализируя множество изображений подобного типа (тысячи или миллионы лиц, например). Для этого задействуется алгоритм обучения, который позволяет обнаружить закономерности между частями информации в изображении и определить отдельные аспекты различных объектов. После прохождения определённых уровней в обучении, DNN может очень точно определить, какой объект "видит", за исключением очень редких обстоятельств.

Чтобы выяснить, что это за редкие обстоятельства, исследователи подключили известную систему искусственного интеллекта под названием AlexNet к системе, которая также включала алгоритмы, сравнивающие снимки с помощью основных элементов. Команда ожидала, что программа выдаст исключительно чёткие изображения объектов, которые любой человек способен опознать мгновенно. Но вместо этого в большинстве случаев результат был сильно искажён – например, AlexNet определила, что на изображениях, выглядящих для людей, как помехи на старом телевизоре или произведения абстрактного искусства, запечатлены какие-то вещи (львы, гепарды, павлины, кофейные чашки). Причём алгоритм был уверен в результате на 99%.

Причина этого очевидного недостатка DNN заключается в том, что алгоритм основывает свои решения на частях изображения. Человек же видит картинку в целом и по ряду её особенностей (форма, цвет, текстура и так далее) делает вывод, что он видит. Ошибка происходит, если алгоритмы, воссоздающие изображения, определяют и добавляют все искомые элементы, но не в логическом порядке.

Стоит отметить, что обмануть можно и человеческий мозг. Не зря же люди видят в оптической иллюзии то, чего на самом деле нет. Теперь учёные из США хотят научить DNN быть более безошибочными в своих решениях.

Важно отметить, что данное исследование было проведено не только ради мимолётного интереса. Нейронные сети глубинного обучения используются в различных приложениях вокруг нас, например, в автопилотируемых автомобилях. В частности, система распознавания препятствий может идентифицировать туман или дым на дороге как объект или даже пешехода. Меж тем попытка предотвращения столкновения с несуществующим объектом может привести к серьёзной аварии. Потенциальный преступник может создать проблемы на дороге, заставив программу неправильно понять тот или иной знак. Кроме того, он может скрыть своё истинное лицо.

Подробности работы – в препринте научной статьи на сайте arXiv.org.

Вести.Ru

15.12.2014 | Чрезвычайное происшествие

Полиция освободила заложников из кафе в Сиднее

Фотогармошка 300х250
Аккерманская крепость
Адвокат