- Технологии

Есть кризис разнообразия в индустрии ИИ

Отсутствие расового и гендерного разнообразия компаний, создающих ИИ связей тесно с вопросами о предвзятости и расовой дискриминации в алгоритмы искусственного интеллекта, говорится в новом нью-йоркском университете study.By: Крис WiltzElectronics & TestArtificial интеллекта, интернета вещей, автоматика и управление движением, бытовая электроника, Электроника и TestMay 13, 2019


(Источник изображения: PixLoger из Pixabay

Много было сделано из возможных алгоритмов ИИ выставлять расисты результатов на основании данных, приведенных в них. Теперь, новый отчет из Нью-Йоркского университета Институт ИИ теперь также остановился на вопросах разнообразия среди самих инженеров, которые занимаются созданием ИИ.

Институт ИИ, междисциплинарного института направлены на изучение социальных последствий искусственного интеллекта, фокусируется на четырех ключевых областях: права и свободы, труда и автоматизации, смещения и включения, и безопасность и критической инфраструктуры.

В докладе, “различая систем: пола, расы, и сила в AI”, подчеркивает, что его авторы называют “кризисом разнообразия” в секторе А. И. по признаку пола и расы.По данным ИИ теперь институт доклад “является кульминацией годичного экспериментального исследования шкалы ИИ нынешнего разнообразия кризиса и возможные пути вперед”, и “опирается на тщательный анализ существующей литературы и современные исследования, занимающиеся проблемами пола, расы, класса, и искусственный интеллект.

“Этот комментарий был целенаправленно ограничен охватывают целый ряд дисциплинарных и методологических позиций, включающих литературу от компьютерных наук, социальных наук, и гуманитарных наук. Она представляет собой первый этап многолетнего проекта по изучению пересечение пола, расы и питания в AI, и последуют дальнейшие исследования и научные статьи по вопросам. “

Среди основных выводов доклада:

  • Черный и Latinx работников существенно недопредставлены в рабочей силе технологий.

    Черный работников существенно недопредставлены в сфере ИИ. Например, только 2,5% рабочей силы компании Google, а Facebook и Microsoft каждый на 4%.

    Latinx рабочие честные лишь немногим лучше, что составляет 3,6% от сотрудников компании Google, 5% в Facebook, и 6% в Microsoft.

  • Женщины недопредставлены в качестве научных сотрудников ИИ.

    Женщины составляют только 15% научных сотрудников ИИ в Facebook и 10% в Google.

    Нет публичных данных о транс работников или других гендерных меньшинств в качестве научных сотрудников ИИ.

  • Женщин-авторов недостаточно представлены на конференциях ИИ.

    Только 18% авторов в ведущих конференциях АИ-женщины.

  • Компьютерная наука в целом переживает исторический низкой точкой для разнообразия.

    В докладе отмечается, что женщины составляют только 18% из компьютерной науке в США в 2015 году (по сравнению с 37% в 1984 году). В настоящее время женщины составляют 24,4% от численности рабочей силы информатика, а их средние зарплаты составляют 66% от их коллег-мужчин.

Цифры становятся еще более пугающими, когда гонка учитывается. Доля бакалавров в области машиностроения присуждена чернокожих женщин снизился на 11% с 2000 года до 2015 года. “Число женщин и людей цвета в то же время снизились, что ИТ-индустрии было утвердить себя в качестве связующего звена богатства и власти”, — говорится в докладе. “Это даже более значимым, если мы признаем, что эти шокирующие цифры разнообразия не рефлексируйте стебля в целом: в сфере информатики и ИИ, расовых и гендерных различий показал заметное улучшение”.

Трубопровод не достаточно

На основе своих выводов, институт ИИ теперь призывает к сфере ИИ резко смещаться, как разнообразие. Однако он также предупреждает, что ремонт школы в отрасли производство и сосредоточение внимания на “женщины и технологии” усилий будет недостаточно. “Подавляющему количеству женщин в технологии является слишком узким и, вероятно, в честь белых женщин за других”, — говорится в докладе.

Подавляющему количеству женщин в технологии является слишком узким и, вероятно, в честь белых женщин по сравнению с другими.

“Несмотря на многие десятилетия ‘элементов трубопроводов’ что оценивать потоки различных кандидатов на работу из школы в отрасли, не было никакого существенного прогресса в разнообразии в отрасли ИИ,” — говорится в докладе. “Фокус на газопроводе не решены более серьезные проблемы с культурой труда, неравенство сил, преследования, дискриминационной практики найма, несправедливые компенсации, и разметка, которые вызывают люди, чтобы уйти или избежать, работающие в сфере ИИ в целом.”

На технологической стороны, в докладе также содержится призыв к сфере ИИ пересмотреть использование ИИ для “классификации, распознавания и прогнозирования расы и пола”.

“Системы, которые используют внешний вид в качестве косвенного характера или внутренних дел государств-глубоко подозреваемого, в том числе инструменты АИ, которые утверждают, что определить сексуальность от хедшотов, прогнозирования преступности на основе черт лица, или оценки компетентности работника через микро-выражений,’ ”
в докладе говорится. “Такие системы имеют повторяющийся узор расовой и гендерной предвзятости в отношениях, которые могут углубить и обосновать историческое неравенство. Коммерческое внедрение этих средств, вызывает глубокую озабоченность”.

Системы, использующие внешности в качестве косвенного характера или внутренних дел государств-глубоко подозреваемым.

 

Необходимость обеспечения транспарентности

Со своей стороны, Институт ИИ теперь делает несколько рекомендаций по решению как разнообразие в рабочей силе ИИ, а также уклон в самих алгоритмов.

В плане разнообразия, говорится в докладе прозрачность является ключевым, и рекомендует компаниям повысить прозрачность в отношении заработной платы и компенсации, преследования и дискриминации доклады, и при приеме на работу. Это также требует изменения в практике найма, в том числе целевой набор для увеличения разнообразия и стремление к увеличению “количества людей с другим цветом кожи, женщин и других недостаточно представленных групп среди руководителей высшего звена компаний Ай во всех подразделениях”.

Устранение смещения в системах ИИ будет другой, но не менее важная задача. В дополнение к прозрачности, когда, где, и как развернутых систем ИИ, и почему они используются, институт также требует более тщательного тестирования на протяжении всего жизненного цикла систем искусственного интеллекта для обеспечения непрерывного мониторинга для доказательства предвзятости или дискриминации.

Кроме того, должна быть оценка риска проводится для оценки того, являются ли определенные системы должны быть разработаны на все. “Области исследования о предвзятости и справедливости должен выйти за рамки технического debiasing, чтобы включить более широкий социальный анализ как AI используется в контексте. Это требует, в том числе более широкий спектр дисциплинарных экспертизу”, — говорится в докладе.

СТАТЬИ ПО ТЕМЕ:

  • Предвзятость, предвзятость: как ИИ может стать расистом

  • Да, ИИ может быть обманом, и это серьезная проблема

  • Подготовка к растущей ИИ рабочей силы

Петля Обратной Связи

Доказательство как технологический и разнообразие проблем в сфере ИИ были широко распространены в последние годы.

В 2013 исследование, проведенное профессором Гарвардского университета латания Суини обнаружил, что поиск двух популярных поисковых систем для названия обычно ассоциируются с неграми (я.е Дишона, Дарнелл и Джермейн) дали рекламу Google Adsense и связанных с арестами в большинстве случаев. Напротив, бело-соответствующие имена, такие как Джеффри, Джилл, и Эмма дала более нейтральные результаты

В 2016 расследование ProPublica обнаружили, что ИИ инструмент используется на американских судей, чтобы оценить риск, обвиняемого в совершении другого преступления и в дальнейшем был “расово предвзятой и неточной”, — и был почти дважды как правоподобны для того, чтобы метка афро-американцы, как более высокий риск, чем белых.

Среди различных исследований, доклад Института ИИ теперь также цитирует исследования, 2019, проведенное учеными Северо-Восточного университета, которые обнаружили, что рекламный сервис доставки Facebook был доставлять таргетированную рекламу для пользователей, основанных на расовых и гендерных стереотипов. В объявлениях о приеме на работу, например, кассира супермаркета позиции были непропорционально показано, что женщины, таксист позиции были показаны негров, и пиломатериалы вакансии в отрасли были показаны непропорционально белых мужчин.

Вопросы расового и гендерного неравенства в некоторых из крупнейших технологических компаний известно, для создания технологий ИИ также нашли свое отражение в недавних газетных заголовков. На момент написания этой статьи Microsoft в середине иска гендерная дискриминация иск работников утверждая, что компания не смогла серьезно рассмотреть сотни преследования и рассмотрения жалоб о дискриминации.

Убер, которая не скрывала своей автономной усилий в области развития автомобилей, в настоящее время находится под федеральным следствием гендерной дискриминации. В 2017 аудит в сфере оплаты труда в компании Google Департаментом труда США нашли разницу до шести-семи стандартных отклонений между платить для мужчин и женщин в почти каждой категории должностей в компании.

И широко разрекламированном блоге 2018 почтовая марка Лаки, бывший менеджер на Facebook, обвинила компанию в дискриминации на рабочем месте против его Черный человек.

Это не означает, что компании не знают этих проблем. На 2019 Я/o конференции разработчиков, компания Google заявила, что она активно изучает методы устранения возможных погрешностей в алгоритмах, которые он применяет для распознавания образов и других задач.

По данным ИИ теперь Институт, проблем с многообразия и предвзятости в систему ИИ соединять в так называемой “дискриминации обратной связи”, в котором ИИ продолжает выставлять проблематично предубеждения и дискриминации, сколько в частично из-за отсутствия входных и внимания со стороны инженеров из недопредставленных расовых и гендерных групп.

“Дискриминация и неравенство на рабочем месте иметь значительные материальные последствия, особенно для недопредставленных групп, которые будут исключены из ресурсов и возможностей”, — отмечается в сообщении. “…Эти формы дискриминации и отчуждения вовсе не только о рабочем месте в большой мир. Промышленные системы ИИ играют все большую роль в наших соц и политических институтов, в том числе в сфере образования, здравоохранения, трудоустройства и уголовного правосудия. Таким образом, мы должны рассмотреть взаимосвязь между кризисом разнообразия на рабочем месте и проблемы с предвзятостью и дискриминацией в системы ИИ”.

Крис Вильц является старшим редактором на оформление новостей, охватывающих новые технологии, включая AI, ВР/АР, блокчейн, и робототехники.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *