Бeз предвзятости. В Нью-Йорке приговоры выносит ИИ


Опубликованно 16.10.2020 06:50

Бeз предвзятости. В Нью-Йорке приговоры выносит ИИ

Экспeримeнт пo испoльзoвaнию искусствeннoгo интeллeктa в судeбнoй систeмe был oстaнoвлeн нa пoлгoдa с-зa пaндeмии кoрoнaвирусa, нo тeпeрь внoвь нaчинaeт рaбoту.

В Нью-Йoркe вoзoбнoвили рaбoту пилoтнoгo прoeктa пo испoльзoвaнию искусствeннoгo интeллeктa в судeбнoй систeмe - aлгoритм рeкoмeндуeт мeру пресечения. Верхи надеются на сокращение нагрузки получи и распишись местные тюрьмы и рассчитывают. ровно это позволит избежать предвзятости. сайт.net рассказывает подробности.

 

Помимо расового неравенства

В декабре 2018 возраст Европейская комиссия по эффективности правосудия Совета Европы одобрила Европейскую этическую хартию, содержащую символ веры использования искусственного интеллекта в судебной и правоохранительной системах.

Сие первый международный акт, и неизведанную сферу. В хартии говорится о необходимости пользовательского контроля: пфальцграф вправе не согласиться с решением, предложенным ИИ, а возьми на выбор (любое) участник спора имеет шариат оспорить такое решение и востребовать суда без применения искусственного интеллекта.

В Нью-Йорке такая строй призвана освободить тюрьмы, которые, (как) будто считают власти, переполнены с-за излишнего консерватизма американских судей.

Опыт по использованию ИИ в судебной системе был остановлен нате полгода из-за пандемии коронавируса, однако теперь вновь начинает работу.

Microsoft заменит редакторов алгоритмами

Толстушка Wall Street Journal пишет, точно алгоритмы, которые были разработаны бери основе широкой базы данных точно по уже завершенным делам, могут отблагодарить судьям две рекомендации: отпустить подина залог или заключить подо стражу до суда.

Центр данных состоит из   1,6 миллиона уголовных дел, закрытых в 2009-2015 годах. В ней содержится неважный (=маловажный) только стандартная личная исходны данные, но и такие детали, точно добровольно ли подозреваемый сообщал нестандартный домашний телефон и адрес полицейским возле задержании.

Эта информация оказалась одной с определяющих для алгоритма, ввиду, как выяснили исследователи, тетюха, кто делал это по своей охоте, чаще приходили на судебное оперативка сами, поэтому могут существовать отпущены под залог.

Надо проектом работали две независимые наперсник от друга компании. По времени того, как они создали изрядно десятков моделей поведения, разработчики объединили силы, так чтоб оставить преимущественно только совпавшие модели.

В итоге была разработана прием, отчасти похожая на популярность оценки кредитоспособности физических лиц, еще давно используемый в США.

Кабы программа, которая создавалась в 2013 году, отпускала лещадь залог не более 40 процентов подозреваемых, ведь новый алгоритм - 86,7 процента чернокожих, 89,7 процента белых и 90,7 процента латиноамериканцев.  

Подобная способ, применяемая в штате Нью-Джерси в 2014 году, показала свою действенность, сократив аресты почти до половины. Однако та система без- могла преодолеть расовое отличие: под стражу взят всякий третий белый и каждый другой черный.

В этой связи годочек назад около 30 ученых и исследователей с ведущих американских университетов написали открытое сопр, в котором выразили "серьезные опасения".

"Целые десятилетия исследований показали, ась? за одни и те а преступления афроамериканцев или латиноамериканцев арестовывали, осуждали неужто давали более строгие приговоры чаще, нежели белых", - говорится в письме.

Таким образом, алгоритмы, основанные получай анализе таких приговоров, изначально являются предвзятыми.

ИИ ес первый за полвека антибиотик

 



Категория: Техника