Первоначально опубликовано HalkTalks: https://hacktown.com.br/blog/blog/os-dados-que-a-maioria-das-pessoas-usa-para-treinar-seus-modelos-de-inteligencia-artificial- ja-vem-com-um-vies-embutido/

Мы поговорили с Джоном Тубертом, руководителем отдела технологий R/GA NY, об эволюции искусственного интеллекта, о существовании пугающих предубеждений и о том, как их избежать. Проверьте это.

Расскажите о себе и своей карьере?
Я родом из Аргентины, но последние 30 лет живу в США. Сейчас я живу в Нью-Йорке с женой и двумя дочерьми.
Последние 20 лет я работаю в области технологий, создавая и управляя веб-сайтами, мобильными приложениями, социальными сетями, а также другими видами взаимодействия с клиентами.

Сейчас я руковожу технологическим отделом R/GA NY. До этого я руководил технической командой нашего офиса в Сан-Франциско в течение 5 лет, а также помогал строить офис R/GA в Буэнос-Айресе еще в 2010 году.

Каким образом ИИ присутствует в вашей работе?
Лично я давно интересовался ИИ, и на работе он ничем не отличается. Мы использовали ИИ для внутренних проектов, а также для работы с клиентами. Ранее в этом году мы провели наш первый глобальный саммит по ИИ, чтобы все в компании стали лучше разбираться в ИИ и машинном обучении.

Насколько сложным становится ИИ? А какое самое впечатляющее применение ИИ вы видели в последнее время?
ИИ становится все более изощренным, с более дешевыми и мощными компьютерами, облачными хранилищами, а также все большим количеством компаний, которые упрощают и ускоряют создание моделей (например, Google AutoML), все больше и больше компаний и частных лиц создают больше приложений на базе ИИ.

Существует так много впечатляющих применений ИИ, что трудно придумать что-то одно. Лично мне нравятся те, которые делают вещи быстрее и проще, такие как функция автозаполнения Gmail, но есть также впечатляющие способы использования ИИ для помощи в обнаружении мошенничества, которые есть у таких компаний, как Amex, которые могут помочь им сэкономить миллионы долларов или даже больше. Впечатляет то, как ИИ используется для спасения жизней, диагностируя признаки рака легких на рентгеновских снимках.

Почему многим типам ИИ свойственны предубеждения? Как вы на это смотрите?
Ответ прост: данные, которые большинство людей используют для обучения своих моделей ИИ, необъективны. Даже крупные технологические компании используют данные о смещениях для обучения своих моделей.
Кроме того, многие компании не добавляют «тестирование на смещения» как часть своего цикла разработки и не используют исторические данные, в которых уже есть погрешности. Например, представьте, что я создаю систему искусственного интеллекта, чтобы найти лучших профессоров для колледжа, но использую исторические данные за последние 100 лет. Если бы большинство профессоров, которые у нас были за последние 100 лет, были мужчинами, алгоритм ИИ мог бы квалифицировать кандидатов только как «хороших».

Можете ли вы привести пример или два того, как предвзятость может закрасться и проявиться в алгоритме?
Таких примеров очень много в разных отраслях. Вот некоторые из них, которые произвели на меня сильное впечатление, о которых я говорил на своем выступлении на SXSW в прошлом году:
Камеры с искусственным интеллектом не обнаруживают более темные скины. В некоторых случаях он пропускает метки, а в других вообще не обнаруживает их. Таким образом, мелкие вещи, такие как дозаторы мыла, могут не работать, а более важные вещи, такие как самоуправляемые автомобили, могут не идентифицировать человека с более темной кожей как личность.
— Компания Compas создала инструмент ИИ, который помогает определить, осужден ли преступник. скорее всего совершит преступление. Алгоритм оказался предвзятым в отношении афроамериканцев.
— Amazon также создала инструмент ИИ для оценки кандидатов, и вскоре они поняли, что он дискриминирует женщин.

Насколько вы понимаете, какое влияние предубеждения ИИ могут оказать на нашу жизнь?
Как упоминалось в предыдущем вопросе, последствия огромны, если автономные автомобили не могут видеть людей с более темные скины достаточно хорошо, как мы собираемся иметь их на улице? Могут ли правительства использовать инструменты ИИ для поиска преступников, если эти инструменты имеют предвзятость?

Какие меры можно предпринять, чтобы уменьшить предвзятость? Какие шаги может предпринять технологическая отрасль в более широком смысле, чтобы решить эту проблему?
Чтобы уменьшить предвзятость, компании могут нанимать более разнообразные команды. разнообразными данными или использовать существующие наборы данных, которые содержат более разнообразные данные. Компании также могут публиковать данные о поездах, чтобы вместе мы могли найти предвзятость.

Хорошая новость заключается в том, что такие компании, как IBM, Google и Amazon, уже предпринимают шаги для решения этих проблем.
Недавно компания Google выпустила набор инструментов, помогающих решить эту проблему. Дополнительную информацию можно найти здесь. IBM работала над «The Fairness 360 Kit» в течение последних двух лет, и Amazon также работает над подобными инструментами.

Есть ли примеры передового опыта в этом отношении?
Я думаю, что во многих отношениях еще слишком рано для этого, но я уверен, что в ближайшие несколько месяцев будет чем поделиться с использованием инструментов и методов Я раньше делился.

Как R/GA справляется с предвзятостью ИИ? У вас есть хорошие примеры, которыми вы можете поделиться?
Мы используем многие инструменты, о которых я рассказал выше, а также постоянно читаем и делимся передовым опытом с остальной командой. Мы также сотрудничаем со стартапами с нашей венчурной командой.

Первоначально опубликовано на https://hacktown.com.br.