Ученые признались, что не понимают логику искусственного интеллекта

21 декабря 2017 Ученые рассказали о существующих трудностях, с которыми приходится сталкиваться на данном этапе. Главной новостью стало признание специалистов в том, что они прекратили понимать принцип, в соответствии с которым искусственный интеллект принимает те или иные решения.

Обозначенная на конференции проблема формирует достаточно серьезный барьер на пути к полномасштабному внедрению «компьютерного разума» в практические сферы жизни. Эксперты говорят о том, что доверять принятие важных решений искусственному интеллекту, не имея объективного представления о том, какой именно логикой он руководствуется, очень легкомысленно, если не безрассудно.

Ученые отмечают, что «компьютерный разум» нередко бывает предвзятым. Его необъективность является следствием неправильно проводимых им аналогий. Поэтому на данном этапе доверять искусственному разуму управление сложными проектами еще преждевременно. В качестве примера ученые привели ситуацию с гипотетическим полетом на Марс. Если поручить руководство столь ответственным проектом искусственному интеллекту, то его ошибки, которые весьма вероятны, могут привести не только к финансовым потерям, но и к человеческим жертвам.

Среди выступавших на конференции ученых также были и те, кто заявлял, что ключ к пониманию логики искусственного интеллекта уже почти найден. Специалист корпорации Google Мэтра Паркси сделала доклад, в котором отразила алгоритм мониторинга действий обособленных частей нейронной сети. По ее словам, такое отслеживание позволяет получить понимание логики, которой руководствуется искусственный интеллект. При этом важно, что при необходимости выявленную логику можно скорректировать в нужное русло.

Обнаружение отдельных искусственных нейронов, концентрирующихся на ошибочных представлениях, позволяет исключить их из общей сети. В результате искусственный интеллект станет более совершенным и менее подверженным принятию ошибочных решений.