Как ИИ различает и что это значит для вашей привычки к Google

Новости сегодня - Как ИИ различает и что это значит для вашей привычки к Google

Сафия Умоджа Ноубл клянется, что она не луддит. Но она считает, что мы все могли бы кое-чему поучиться у британских мастеров по текстилю XIX века, чье имя сейчас является синонимом технологического скептицизма.

«Луддиты знали, что эти новые инструменты индустриализации изменят то, как мы создавали и то, как мы работали», — сказал Ноубл, профессор гендерных исследований и афроамериканских исследований в Калифорнийском университете в Лос-Анджелесе.

Стипендия Нобл изучает новые инструменты, которые меняют наш подход к работе: ее книга 2018 года «Алгоритмы угнетения: как поисковые системы усиливают расизм» вызвала общенациональный разговор об алгоритмической дискриминации в интернет-поисковых системах и принесла ей стипендию «гения» Макартура.

В феврале Ноубл обсуждала свою работу во время основной беседы с исполнительным вице-канцлером Калифорнийского университета в Лос-Анджелесе Дарнеллом Хантом на недавнем Академическом конгрессе Калифорнийского университета по искусственному интеллекту.

В ответ на работу Нобла и других технологические компании исправили некоторые из наиболее вопиющих проблем поисковых систем. Но алгоритмы, которые управляют нашими результатами в Google, являются лишь одним из многочисленных способов, с помощью которых искусственный интеллект формирует нашу жизнь и средства к существованию, и Ноубл говорит, что ни корпоративное самоконтроль, ни государственное регулирование не поспевают за развитием технологий и потенциальным вредом.

Недавно мы встретились с Ноубл, чтобы узнать больше о том, почему Интернет работает именно так и что это значит для будущего, основанного на искусственном интеллекте.

Почему вы написали «Алгоритмы угнетения» и какую разницу изменила ваша работа?

Книга представляла собой исследование того, что происходит, когда вы спрашиваете поисковые системы об обществе, и особенно об уязвимых людях . Когда я зашел в Google и начал искать чернокожих девушек, азиаток, латиноамериканок, 80% первой страницы результатов поиска было порнографией или гиперсексуализированным контентом. И мне не пришлось вводить слова «секс» или «порно». Чернокожие девушки и женщины уже стали синонимом порнографии.

«Алгоритмы угнетения» призваны описать то, что здесь происходит. И я думаю, что прорыв в этой работе, которая сейчас стала своего рода здравым смыслом, заключается в том, что алгоритмы могут различать. Обычные пользователи теперь это понимают. «Алгоритм» — часть нашего лексикона.

Что касается академических кругов, сейчас у нас есть тысячи исследователей по всей стране и, возможно, десятки тысяч по всему миру, которые работают над вредом технологий. И моя работа действительно была подхвачена промышленностью. Я думал, что Кремниевая долина будет относиться к этому враждебно, но я думаю, что это дало язык вещам, которые они тоже пережили.

Как результаты поисковых систем влияют на жизнь людей?

Если у вас есть идентичности, которые исторически угнетались, вы воспринимаете системы по-разному. Некоторые люди по-прежнему просто делятся кошками ради LOL, в то время как другие полностью травмированы расистским контентом.

Если бы все чернокожие женщины и девушки страны собрали все наши деньги, у нас все равно никогда не было бы столько денег, сколько у порноиндустрии. Мы никогда не сможем контролировать способ оптимизации наших ключевых слов. Так как же мы будем вмешиваться в подобные системы?

Google и другие компании первыми заявляют, что знают о существовании этих проблем и работают над ними. Но я не думаю, что они действительно способны справиться с властью и неравенством в своих системах. Во всяком случае, они просто настраивают эти алгоритмы, а не кардинально их переделывают.

Если результаты поиска не являются нейтральными, почему мы получаем такие результаты?

Десять лет назад преобладающая логика заключалась в том, что все, что появлялось в поисковой системе, просто отражало нас самих. На фундаментальном уровне не было абсолютно никакого понимания того, как запрограммированы эти платформы и как они расставляют приоритеты одних типов ценностей над другими.

Прежде всего, существует алгоритм, который сортирует миллионы потенциальных веб-сайтов, которые могут оказаться на первой странице. И тогда на результаты, которые вы видите, влияют отрасли промышленности, иностранные агенты и политические кампании на сером рынке поисковой оптимизации. Это целая кустарная индустрия, созданная для того, чтобы выяснить, как манипулировать поисковыми системами.

Компании, владеющие поисковыми системами, созданы для того, чтобы реагировать на запросы тех, кто предложит самую высокую цену. Да, они постоянно пытаются уточнить и определить, где в их системы играют. Но они создали продукты, в которые можно играть. Таким образом, вина лежит на тех компаниях, которые производят продукцию, которой легко манипулировать.

Как ваши исследования изменили то, как вы пользуетесь Интернетом?

У меня очень много скептицизма по поводу поиска. Я не использую его так, как будто иду в библиотеку. Я использую его для покупок, и для этого он, пожалуй, лучше всего предназначен.

Что касается чего-то вроде телевидения или кино, мы понимаем, что существует субъективная точка зрения. Если в других средствах массовой информации есть расистские или сексистские искажения, мы понимаем, что это точка зрения режиссера или сценаристов.

Но мы не считаем результаты поиска субъективными. Мы используем поисковые системы, такие как средства проверки фактов. И они очень надежны для определенных фактов: математик может ввести формулу и посмотреть, где в коде есть ошибка. Или вы можете использовать его для банальных вещей, таких как: «Где ближайшая кофейня?» Вы получите ответ, и это довольно надежно.

Так что, если он надежен для вещей, которые довольно бессмысленны, это укрепляет вашу веру в то, что он имеет смысл для всего. Но если вы воспользуетесь тем же инструментом для ответа на социальный или политический вопрос, думаете ли вы, что получите надежный ответ?

Если вы не используете Google и другие поисковые системы для получения социальной или политической информации, что вы делаете вместо этого?

У нас есть такие штуки, которые называются библиотеками! Подумайте о том, что происходит еще до того, как что-то появляется в библиотеке: были редакторы, рецензенты, издатель. А еще есть библиотекари, которые очень серьезно относятся к своим обязательствам перед общественностью и сохранению знаний. Они обучены классифицировать знания таким образом, чтобы общественность могла понять, чем они занимаются.

Так что, если вы ищете в библиотеке книгу о Холокосте, вы найдете ее в контексте многих других работ о Холокосте. Когда вы достанете его с полки, вы сможете обнаружить вокруг него и другие вещи: из истории, текущих событий или социологии?

Если вы просто воспользуетесь поисковой системой, вы можете получить веб-сайт отрицания Холокоста, который выглядит как достоверная информация, и вам может быть трудно понять, что это такое, потому что он полностью вырван из контекста. Это не похоже на обертку с надписью: «Это в разделе Интернета, посвященном сторонникам превосходства белой расы!»

Введите: ChatGPT. Что вы видите с точки зрения того, как генеративный ИИ воспроизводит или противодействует тем видам дискриминации, которые вы выявили в поиске, и почему?

Итак, ChatGPT — это тип ИИ, построенный на том, что мы называем большой языковой моделью . Эти модели впитывают в свои обучающие данные практически все, что доступно в Интернете, что по причинам, о которых мы говорили, не всегда является хорошей идеей. Они берут работы, защищенные авторским правом, научные исследования, а также случайные субреддиты, как будто все эти вещи одинаково надежны.

Компании, производящие генеративный искусственный интеллект, выпустили продукты, которые не готовы к использованию в прайм-тайм. Теперь каждую неделю в новостях мы видим статьи об инструментах генеративного искусственного интеллекта и их проблемах. Во-первых, многое из того, что создают большие языковые модели, не соответствует действительности. И недавно один из инструментов генеративного ИИ-искусстваотказался отобразить изображение чернокожих врачей, лечащих белых пациентов .

Я имею в виду, что у этих крупных языковых моделей нет агентности, поэтому они фактически не могут отказаться. Это просто статистические инструменты сопоставления с образцом. Но отсутствие возможностей для таких вещей, как множественные типы гендерного самовыражения, множественные типы расового и этнического представительства — там, где мы ограничены в обществе этими вещами, мы еще более ограничены в данных, которые обучают модели. Таким образом, модели ограничены в возможности давать даже определенные типы результатов.

Что вы делаете, чтобы подготовить своих учеников к навигации в мире, созданном искусственным интеллектом?

Я использую поиск Google более десяти лет, чтобы обучать своих студентов медиаграмотности. Я попрошу студентов выполнить поиск по личностям, которые для них важны, а затем вернуть результаты, и мы обсудим это. Итак, я просил студентов искать, скажем, «девушку из женского общества», и вы можете себе представить их реакцию на результаты, например: «Это так неправильно». Результаты часто являются глубоко расистскими или сексистскими, или в некотором смысле искажают то, кем студенты считают себя.

В некотором смысле ChatGPT — это просто следующая версия поиска, поскольку он не различает пропаганду и доказательства. Студенты приходят в мой класс и используют пропагандистские сайты в качестве доказательства, потому что не могут заметить разницу. Поэтому очень важно иметь возможность вести такие беседы в моем классе. Но где я бы предпочел видеть больше вмешательства, так это на политическом уровне. Прямо сейчас это похоже на то, что ИИ здесь, вот так оно и есть. Вы, общественность, должны научиться этим пользоваться, вы должны перехитрить это, вы должны это понять. Этого кажется крайне недостаточным, поскольку мы могли бы по-другому регулировать эти инструменты и ограничивать их применение там, где это имеет смысл.

Есть ли какой-либо повод для оптимизма в отношении того, что более совершенные алгоритмы смогут сократить социальные предубеждения быстрее, чем если бы мы навсегда оставили все творение и принятие решений на усмотрение людей, а также наши неявные предубеждения?

Люди, создающие прогнозирующие модели ИИ, утверждают, что они уменьшают человеческую предвзятость. Но не бывает сценария, в котором бы не было расстановки приоритетов, дерева решений, системы оценки чего-то по сравнению с чем-то другим. Поэтому неверно говорить, что мы стремимся исключить предвзятость в отношении технологий, так же как мы не хотим устранить предвзятость в отношении людей. Мы хотим быть очень конкретными: мы хотим уменьшить формы дискриминации или несправедливости, а это не то же самое, что устранение предвзятости.

Вы также можете охарактеризовать это так: Мы придерживаемся определенных ценностей. И мы хотим обеспечить соблюдение этих ценностей. Это означает, что нам придется признать, что технология действительно имеет определенный набор ценностей или запрограммирована вокруг набора ценностей. И мы хотим оптимизировать, чтобы получить больше нужных нам значений.

Мы стараемся делать это с людьми. Для этого мы получаем образование. Вот почему мы узнаем о других людях. Вот почему мы занимаемся искусством и вещами, которые делают нас более чувствительными к широте человечества.

Сказать, что вам нужна технология, которая была бы полностью нейтральной и лишенной каких-либо маркеров, которые отличают людей, вы просто отдаете предпочтение приоритетам, которые обусловлены вашими собственными предубеждениями. Если мы хотим работать над достижением плюралистических и продемократических приоритетов, мы должны ориентироваться на то, что мы ценим.

Какие ценности управляют технологиями в том виде, в каком мы их знаем?

Десять лет назад, если бы поисковые компании уделяли приоритетное внимание, скажем, благополучию женщин и девочек, они бы не позволили порноиндустрии быть самой высокой ценой в их обществе. Этого бы просто не произошло. Они склонны к прибыли за счет женщин.

Мы больше не живем в эпоху, когда порно доминирует в поиске, потому что компаниям приходится отвечать на их многочисленные критики. Но идеологические мировоззрения лидеров Кремниевой долины по-прежнему вызывают тревогу. Они верят, что технократы могут создать лучшее общество и что демократия слишком беспорядочна. Эта политика пропитана продуктами, которые они производят, на кого они ориентированы, над кем экспериментируют и кого во всем мире считают одноразовым.

У меня была возможность подумать о выполнении подобной работы в других местах. Но мое сердце принадлежит Калифорнийскому университету, потому что государственные учреждения являются мощным противовесом частному сектору. Очень важно, чтобы мы проводили исследования от имени общественности, жителей штата Калифорния и этой страны, потому что мы надеемся, что мы не будем так подвержены тому давлению, которое испытывают люди, работающие в промышленности.

Какие уроки о жизни с ИИ мы можем извлечь из прошлых социальных преобразований?

Я говорю своим студентам: «Когда моя мама родила меня, у нее во рту была сигарета. И у доктора тоже». И они в ужасе! Они такие: «Такого не могло быть!» И я такой: «Это действительно произошло».

Когда я был маленьким, мы просматривали журналы и видели рекламу типа: «Три из четырех врачей предпочитают сигареты Camel». В каждом фильме, каждом телешоу быть гламурным означало курить. Табачная индустрия сформировала наше ощущение реальности. Это было настолько нормальным явлением, что я до сих пор удивляюсь, что больше не вижу никого курящего.

Люди, выросшие сегодня, просто не могут даже представить себе то время, которое было раньше. Итак, я думаю, мы можем оглянуться назад на эту эпоху и сказать: почему я просто не задал этот вопрос своей маме вместо Google? Почему я просто не прочитал книгу? Как мы вообще сюда попали?

Google прекращает принудительный арбитраж для всех сотрудников

Понравилась новость - поделитесь с Друзьями!

Новости партнеров:

Рубрика: IT, Новости

Вам могло бы понравиться:

Почему доля наличных в 15% стала новой нормой и как это связано с курсом доллара по 77 рублей Почему доля наличных в 15% стала новой нормой и как это связано с курсом доллара по 77 рублей
Зарубежная косметика, одежда, продукты и техника взлетят в цене на 30%. Зарубежная косметика, одежда, продукты и техника взлетят в цене на 30%.
Ипотека как роскошь: Средний чек взлетел до 4,9 млн рублей на фоне ожидания блокировок и VPN-паранойи Ипотека как роскошь: Средний чек взлетел до 4,9 млн рублей на фоне ожидания блокировок и VPN-паранойи
Виктор Орбан признал поражение и позвонил оппозиции. Конец эпохи «нелиберальной демократии»? Виктор Орбан признал поражение и позвонил оппозиции. Конец эпохи «нелиберальной демократии»?

Оставить комментарий

Вы должны Войти, чтобы оставить комментарий.

©2015 - 2026 Актуальные Новости Сегодня. Все права защищены.
При копировании материалов активная гиперссылка на этот сайт ОБЯЗАТЕЛЬНА!