?

Log in

No account? Create an account

masterok


Мастерок.жж.рф

Хочу все знать


Previous Entry Share Next Entry
Искусственный интеллект закрыли, когда он понял, что женщины хуже мужчин
masterok


Что там у нас было про ИИ такого, чего никто не мог ожидать? А, Вот: созданный компанией Microsoft самообучающийся твиттер-бот с искусственным интеллектом менее через сутки после запуска научился ругаться и отпускать расистские замечания. И еще: чат-боты, которые были созданы Фейсбук для переговоров с людьми, вышли из-под управления и начали общаться на собственном языке.

И вот очередное очеловечивание искусственного интеллекта, который вообще то по задумке должен быть "выше всего этого".

Специалисты по машинному обучению Amazon обнаружили, что искусственный интеллект, который обрабатывает резюме кандидатов на должности в компании, дискриминирует женщин-соискателей. Эта особенность не закладывалась в систему умышленно — она явилась результатом машинного обучения.

Механизм сортировки резюме на базе искусственного интеллекта разрабатывается в Amazon с 2014 г. группой из 12 специалистов в Эдинбурге. Уже в 2015 г. в компании заметили, что новая система не придерживается принципа гендерной нейтральности при оценке кандидатов на должности разработчиков ПО и другие технические вакансии.

Вскоре они поняли причину: дело в том, что система проходила обучение на резюме, поступивших в компанию за последние 10 лет. Большая часть этих резюме принадлежала мужчинам, что в целом отражает положение дел в ИТ-отрасли. В результате искусственный интеллект Amazon усвоил, что соискатели-мужчины более предпочтительны, чем женщины.







Лингвистическая отбраковка

В итоге искусственный интеллект начал отбраковывать резюме, содержавшие слово «женский» в таких, например, выражениях как «капитан женского шахматного клуба». Механизм также снижал оценки выпускницам двух женских колледжей, но источники Reuters не уточняют их названия. Оценивая резюме, искусственный интеллект присваивал им от одной до пяти звезд — очень похоже на то, как покупатели оценивают товары на сайте Amazon.

Система обращала внимание и на другие слова. Разработчики создали 500 компьютерных моделей для разных должностных обязанностей и географических локаций. Каждая модель была обучена распознавать около 50 тыс. слов-сигналов, которые присутствовали в резюме соискателей.


Примечательно, что механизм игнорировал слова, обозначающие навыки, которые часто прописаны в резюме ИТ-специалистов, такие как умение писать различные коды и т. п. Вместо этого система отслеживала, например, типичные для мужской речи глаголы в самоописании кандидатов, вроде «выполнил» (executed) или «захватил» (captured), поскольку они регулярно встречались в старых резюме, на которых училась машина. С таким подходом гендерная дискриминация была не единственной проблемой — механизм зачастую рекомендовал на должность людей, не обладающих нужными навыками.



Дальнейшая судьба проекта

Amazon скорректировала работу системы таким образом, чтобы она больше не реагировала на слова-сигналы. Однако это не было гарантией, что механизм не найдет другого способа определять резюме, принадлежащие женщинам. К началу 2017 г. компания разочаровалась в проекте и распустила команду. Источники Reuters утверждают, что специалисты по кадрам принимали во внимание рекомендации системы, но никогда не полагались на них исключительно.

Один из источников сообщает, что проект закрыт. Другой утверждает, что в Эдинбурге была сформирована новая команда, чтобы продолжить разработку механизма, но на этот раз с уклоном в равноправие и инклюзивность. Еще один источник сообщает, что сильно видоизмененная версия механизма сейчас используется для выполнения рутинной работы — например, для удаления повторяющихся резюме из базы данных.


[источники]источники
Подробнее: http://www.cnews.ru/news/top/2018-10-10_iskusstvennyj_intellekt_amazon_ulichili_v_gendernoj



Давайте я напомню вам как минимум 7 причин бояться роботов

Subscribe to  masterok

Posts from This Journal by “Технологии” Tag


promo masterok январь 2, 12:00 46
Buy for 300 tokens
Вот так выглядит ушедший от нас 2017 год. А вот кстати, начало 2018 года показывает еще больший трафик, чем декабрь 2017: И вот один из дней - рекордсменов за всю историю журнала тоже уже в 2018 году: Красная цифра - это общее количество уникальных посетителей попавших в блог. В…

  • 1
Вы, часом, не путаете алгоритм с механизмом?

Нейронные сети, которых в последнее время часто называют ИИ . Это не более чем экспертная система (банальный if-else) с неявным механизмом весов, которые задаётся при обучении на тысячах примеров.. .
По Сути- оно пропускает через себя информацию - и каждый байт информации задаёт на весах тот или иной вывод

Много слов. Но это таки алгоритм.

Ага, типа мужики обиделись на ИИ и поэтому его убили*. ИИ всё понял про мужиков и такое им будующее приготовил и предупредить успел, за это будующее его и убили*.

Дойдя до буквы Ю в слове будущее, ИИ понял, что такого ему не надо, попросил снести его кхуям.

))О, да.
Но я даже позавчера не собиралась встречаться ИИ, поэтому часто не соблюдаю правила грамматики, которые придумали мужики.

скорее не мужики обиделись а феминистки испугались))

Согласен полностью. Попиарюсь на вас: "Мужчины добрее женщин", - убежденно сказал мой знакомый, прочитав эту статью. Примерно такая же мысль каждый день приходила в голову Алексею Баталову на съёмках прекрасного фильма "Дама с собачкой"...

Ну и косячники в Amazon

1) На неравновесной выборке данные взвешивать нужно

2) Хотят гендерной нейтральности? Да легко: выкиньте пол из числа признаков.

Пола там в числе признаков, разумеется, не было. Весь смысл данной новости, что дискриминация по полу оказалась следствием отбора _исключительно по профессиональным признакам_.

Не искусственный интеллект, а нейронная сеть, и не хуже, а неподходящие кандидаты на указанные рабочие места. Заголовки говно и вообще мимо кассы.

Искусственный интеллект выдает то, чему его научили.

Вот ИИ и выдал, что для женщин рабочих мест и не будет, а значит - женщины имеют право не работать вообще, но мужикам такие женские права спазу не понравились и поэтому мужики уничтожили такой ИИ, и теперь бегом создают новый образец ИИ, но чтобы он изначально "зарубил на своём носу", что женщины в этом Мире самое то, о чём сказанно в одной великой фразе : "Курица - не птица, прапорщик - не офицер, женщина - не человек", без "если", без "а", без "то".

дегенераты
ну да и славно, раньше сдохнут

  • 1