Искусственный интеллект предвзятый и необъективный: ученые научились это выявлять

Ученые научились выявлять предвзятость искусственного интеллекта

Исследователям удалось разработать фреймворк, который помогает идентифицировать необъективность и предвзятость алгоритма. Это особенно важно в тех случаях, когда ИИ применяется для принятия решений — в суде при вынесении приговора или в банке при одобрении кредита.

Справка из Википедии: Искусственный интеллект

Искусственный интеллект — это наука и технология создания интеллектуальных машин, особенно интеллектуальных компьютерных программ; свойство интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека.

Машинное обучение все чаще используется для принятия важных решений. В некоторых штатах США судьи выносят приговоры и определяют условия освобождения под залог, используя алгоритмы, которые вычисляют вероятность того, что человек совершит повторное преступление. Другие алгоритмы определяют, следует ли одобрить человеку кредит или пригласить на собеседование.

Как пишет «Нью сайентист» (New Scientist), зачастую непонятно, как алгоритм пришел к тому или иному выводу, а потому неясно, можно ли говорить о справедливости. Всегда есть вероятность, что он обучался на выборке данных, которая не была полной. А потому исследователи стали поднимать проблему расизма и предубеждений искусственного интеллекта.

Исследователи из Института Алана Тьюринга в Лондоне разработали фреймворк, который поможет идентифицировать необъективность алгоритма. Расовые и гендерные признаки нельзя игнорировать, но они должны рассматриваться в комплексе с другими факторами, а не определять решение.

Им уже удалось успешно протестировать свою разработку — оказалось, что чаще всего полицейские останавливают чернокожих мужчин и латиноамериканцев, а потому алгоритм именно их считал более склонными к преступности. Однако, статистика показывает, что уровень преступности не зависит от цвета кожи. С помощью нового метода можно будет, к примеру, распределять в городе полицейские патрули, не боясь быть обвиненными в расовых предубеждениях и дискриминации.

Летом 2016 года заключенный Эрик Лумис подал иск в Верховный суд штата Висконсин с требованием пересмотреть использование алгоритма для вынесения судебных решений, обвинив его в предвзятости. Эксперты сходятся во мнении, что алгоритмы должны быть объективными. Для этого в том числе предлагается сделать их открытыми.

Текст: Далия Мухамедзянова

отсюда

30.03.2017