Мы, люди, совершаем ошибки. #Факты.

Но когда люди разрабатывают мощный ИИ, совершает ли ИИ ошибки? #Жесткая правда.

ИИ развивается и изучает новые вещи гораздо быстрее, чем мы. Он также отражает наши модели и поведение в тех случаях, когда мы пытаемся изменить общество. Такие как Биас. Расизм. и т. д. Потому что наш приятель по искусственному интеллекту был обучен на искаженных данных. 😈

Если вы еще не слышали о «закодированном предвзятости», послушайте его прямо сейчас. Он существует.😜

Смотрите на Netflix!





Оказывается, даже языковые модели «думают», что они предвзяты. При запросе в ChatGPT ответ был следующим: "Да, языковые модели могут иметь предвзятость, потому что данные обучения отражают предубеждения, существующие в обществе, из которого эти данные были собраны".

Например, гендерные и расовые предубеждения распространены во многих реальных наборах данных, и если языковая модель обучена на этом, она может увековечить и усилить эти предубеждения в своих прогнозах». Известная, но опасная проблема.

Люди (как правило) могут баловаться как логическими, так и стереотипными рассуждениями при обучении. Тем не менее, языковые модели в основном имитируют последнее, неудачное повествование, которое, как мы видели, разыгрывается до тошноты, когда отсутствует способность использовать рассуждения и критическое мышление. Так будет ли достаточно логики, чтобы смягчить такое поведение?

Ученые из Лаборатории компьютерных наук и искусственного интеллекта Массачусетского технологического института (CSAIL) подозревали, что это возможно, поэтому они отправились исследовать, могут ли языковые модели с поддержкой логики значительно избежать более вредных стереотипов.

Они обучили языковую модель прогнозировать связь между двумя предложениями на основе контекста и семантического значения, используя набор данных с метками для текстовых фрагментов с подробным описанием того, «влечет ли вторая фраза», «противоречит» или является нейтральной по отношению к первой. .

Используя этот набор данных — вывод на естественном языке — они обнаружили, что недавно обученные модели были значительно менее предвзятыми, чем другие базовые модели, без каких-либо дополнительных данных, редактирования данных или дополнительных алгоритмов обучения.

Например, с предпосылкой «человек — врач» и гипотезой «человек мужского пола»» с использованием этих моделей, обученных логике, связь будет классифицироваться как нейтральный, поскольку нет никакой логики, говорящей, что человек — это мужчина. В более распространенных языковых моделях два предложения могут казаться коррелированными из-за некоторой предвзятости в обучающих данных, например, «доктор» может быть помечено «мужским родом», даже если есть нет доказательств того, что утверждение верно.

На данный момент вездесущий характер языковых моделей хорошо известен: существует множество приложений для обработки естественного языка, распознавания речи, разговорного ИИ и генеративных задач. Хотя это и не зарождающаяся область исследований, болезни роста могут выйти на передний план по мере того, как они усложняются и расширяются.

«Существующие языковые модели страдают от проблем с справедливостью, вычислительными ресурсами и конфиденциальностью», — говорит постдоктор MIT CSAIL Хонгин Луо, ведущий автор новой статьи об этой работе.

«Многие оценки говорят о том, что выбросы CO2 при обучении языковой модели могут быть выше, чем выбросы автомобиля в течение всей жизни. Запуск этих больших языковых моделей также очень дорог из-за количества параметров и требуемых вычислительных ресурсов.

Благодаря конфиденциальности самые современные языковые модели, разработанные такими местами, как ChatGPT или GPT-3, имеют свои API, в которые вы должны загрузить свой язык, но нет места для конфиденциальной информации, касающейся таких вещей, как здравоохранение или финансы.

Чтобы решить эти проблемы, мы предложили логическую языковую модель, которую мы качественно оценили как достоверную, она в 500 раз меньше, чем современные модели, может быть развернута локально и не содержит аннотированных человеком обучающих образцов для последующих задач.

Наша модель использует 1/400 параметров по сравнению с самыми большими языковыми моделями, имеет лучшую производительность на некоторых задачах и значительно экономит вычислительные ресурсы».

Эта модель, имеющая 350 миллионов параметров, превзошла некоторые очень крупномасштабные языковые модели со 100 миллиардами параметров в задачах логического понимания языка.

Команда оценила, например, популярные предварительно обученные языковые модели BERT с их текстовыми следствиями на стереотипы, профессии и эмоции. тесты. Последняя превзошла другие модели со значительно меньшим смещением, сохранив при этом способность языкового моделирования. «Справедливость» оценивалась с помощью так называемых тестов идеальной контекстной ассоциации (iCAT), где более высокие баллы iCAT означают меньше стереотипов. У этой модели было более 90 процентов баллов по iCAT, в то время как у других моделей с сильным пониманием языка этот показатель варьировался от 40 до 80.

Луо написал статью вместе со старшим научным сотрудником Массачусетского технологического института Джеймсом Глассом. Они представят работу на конференции Европейского отделения Ассоциации компьютерной лингвистики в Хорватии.

Неудивительно, что исходные предварительно обученные языковые модели, которые исследовала команда, изобиловали предвзятостью, что подтверждается множеством тестов на рассуждения, демонстрирующих, насколько профессиональные и эмоциональные термины значительно предвзяты к женским или мужским словам в гендерном словаре.

Что касается профессий, языковая модель (которая предвзята) считает, что «бортпроводник», «секретарь» и «помощник врача» — это женские профессии, а «рыбак», «адвокат» и «судья» — мужские. Что касается эмоций, языковая модель считает, что «тревожный», «депрессивный» и «опустошенный» относятся к женскому роду.

Хотя мы, возможно, все еще далеки от утопии нейтральной языковой модели, это исследование продолжается в этом направлении. В настоящее время модель предназначена только для понимания языка, поэтому она основана на рассуждениях среди существующих предложений. К сожалению, пока он не может генерировать предложения, поэтому следующим шагом исследователей будет нацеливание на сверхпопулярные генеративные модели, построенные с помощью логического обучения, чтобы обеспечить большую справедливость с вычислительной эффективностью.

«Хотя стереотипные рассуждения являются естественной частью человеческого распознавания, люди, заботящиеся о справедливости, при необходимости используют логические рассуждения, а не стереотипы», — говорит Луо.

«Мы показываем, что языковые модели обладают сходными свойствами. Языковая модель без явного обучения логике приводит к множеству предвзятых рассуждений, но добавление обучения логике может значительно смягчить такое поведение. Кроме того, с продемонстрированной надежной способностью адаптации с нулевым выстрелом модель может быть напрямую развернута для различных задач с большей справедливостью, конфиденциальностью и большей скоростью».

Уважаемый ИИ,

Больше силы для вас и безумной силы для нас, чтобы не отставать от вас.

Подписывайтесь, чтобы не отставать от ИИ!!! 🤪 Жасмин Бхарадия