Мусор на входе, мусор на выходе: чиновники сталкиваются с кажущейся невыполнимой задачей регулирования ИИ

По мере того, как использование искусственного интеллекта через такие платформы, как Chat GPT, стремительно растет, американские законодатели сталкиваются с некоторыми новыми вопросами. Точно так же, как чиновникам приходилось учитывать подотчетность социальных сетей, где большая часть отображаемого контента была размещена широкой публикой, теперь они занимаются подотчетностью платформ ИИ.

Интернет-магазин в РФ

Кто отвечает за то, чтобы ИИ выдавал правильную, нетоксичную информацию? Никто не знает, по крайней мере пока, и легко понять, почему.

Проблема с искусственным интеллектом

ИИ становятся более интеллектуальными, обучаясь на все большем количестве наборов данных, и самый простой способ найти огромные объемы данных для обучения ИИ — это поискать в Интернете. Однако проблема в том, что не все, что публикуется, является фактической информацией, особенно когда вы имеете дело с социальными сетями.

Некоторый контент, который публикуется — в социальных сетях или где-либо еще — является просто мнением, а не фактами. С другой стороны, некоторые из них просто неверны: либо дезинформация, похожая на слухи, либо, что еще хуже, дезинформация, размещенная преднамеренно со злым умыслом.

К сожалению, ИИ не могут отличить истинную информацию от ложной, если только человек не сообщит им, что информация ложная. Кроме того, многие исследования помощников ИИ, таких как Siri и Alexa, продемонстрировали, как человеческие предубеждения могут проникнуть в технологию, которая должна быть беспристрастной.

Законодатели США также обеспокоены потенциальным воздействием искусственного интеллекта на национальную безопасность и образование. В частности, чиновников беспокоит ChatGPT — программа с искусственным интеллектом, способная быстро писать ответы на самые разные вопросы. Оно сразу же стало самым быстрорастущим потребительским приложением из когда-либо зарегистрированных, привлекая более 100 миллионов активных пользователей в месяц за считанные месяцы.

Призывы к ответственности в ИИ

Все эти и многие другие факторы вызывают много вопросов об ответственности за искусственный интеллект. В апреле Национальное управление по телекоммуникациям и информации, входящее в состав Министерства торговли, призвало общественность внести свой вклад в возможные меры по обеспечению подотчетности. Агентство сослалось на «растущий интерес регулирующих органов» к «механизму подотчетности» для ИИ.

В частности, официальные лица хотят знать, могут ли они принять какие-либо меры для обеспечения того, чтобы «системы ИИ были законными, эффективными, этичными, безопасными и в остальном заслуживающими доверия». Администратор NTIA Алан Дэвидсон сказал Рейтер, что «ответственные» системы искусственного интеллекта могут предложить «огромные преимущества...», но «компании и потребители должны иметь возможность доверять им.

Президент Джо Байден ранее говорил, что неясно, опасен ли ИИ, добавив, что технологические компании «несут ответственность... убедиться, что их продукты безопасны, прежде чем публиковать их».

Как обучаются модели ИИ

Конечно, искусственный интеллект может быть настолько хорош, насколько хороши данные, используемые для его обучения. Генеральный директор Twitter Илон Маск пригрозил подать в суд на Microsoft после того, как обвинил ее в незаконном использовании данных социальной сети для обучения своей модели искусственного интеллекта. С одной стороны, угроза Маска свидетельствует о заявлении Big Tech о праве собственности на собранные ею данные, которые обычно предоставляются их пользователями бесплатно. Эти технологические гиганты зарабатывают деньги, взимая плату с других компаний за использование собранных данных, и это должно быть то, что Маск имел в виду для Microsoft, если она действительно использовала данные Twitter.

По данным CNBC, эксперты по искусственному интеллекту рассматривают социальные сети как ценный источник данных для своих моделей, поскольку они фиксируют обмен разговорами в неформальной среде. ИИ должны получать терабайты данных для целей обучения, и большая часть этих данных берется с таких сайтов, как Twitter, Reddit и StackOverflow.

Многие из первых моделей ИИ разрабатывались в университетах и ​​исследовательских лабораториях, как правило, без каких-либо расчетов на получение прибыли. Однако по мере того, как крупные технологические компании, такие как Microsoft, переходят на эти модели ИИ, вливая большие суммы капитала, группы, стоящие за этими моделями ИИ, начинают искать прибыль.

В результате владельцы данных, на которых обучаются эти ИИ, начинают требовать плату за доступ к своим данным. Например, в апреле Reddit заявил, что начнет взимать плату с компаний за модели ИИ, чтобы получить доступ к своим данным в учебных целях. Другие компании, в том числе Universal Music Group и Getty Images, требуют оплаты за использование их данных для обучения моделей искусственного интеллекта.

Критический вопрос для моделей искусственного интеллекта

Однако, если оставить в стороне необходимость обучения моделей ИИ на огромных объемах данных, одна вещь, которая мало обсуждается, заключается в том, действительно ли социальные сети являются лучшими источниками для обучения моделей ИИ. Ни для кого не секрет, что социальные сети — это притоны дезинформации и дезинформации.

Люди не безошибочны, поэтому они могут случайно опубликовать неверную информацию или поделиться слухами, которые не подходят для обучения моделей ИИ, поскольку они не представляют фактическую информацию. Кроме того, мы возвращаемся к проблеме человеческой предвзятости, потому что социальные сети, как правило, заполнены предвзятыми сообщениями.

Что еще хуже, некоторые исследования показали, что Facebook и другие социальные сети активно заглушают голоса консерваторов. Если так будет продолжаться, модели ИИ, обучающиеся в социальных сетях, будут иметь изначально либеральный уклон просто из-за данных, на которых они обучались.

Доказано, что ИИ распространяют ложную информацию

Даже если оставить в стороне вопрос о политике и либеральных и консервативных взглядах, невозможно проверить, что сообщения в социальных сетях, используемые для обучения модели ИИ, содержат фактическую информацию. Социальные сети — это место для выражения мнений, но ИИ нужны факты, чтобы научиться отличать правдивую информацию от ложной.

Например, исследование, проведенное в Стэнфордском университете, показало, что ИИ не всегда может точно идентифицировать язык ненависти. Даже люди часто не могут прийти к согласию по этому вопросу, поэтому модель искусственного интеллекта по своей сути ограничена предубеждениями человека или людей, которые сказали ей, что представляет собой разжигание ненависти.

Однако проблема с дезинформацией или дезинформацией может оказаться еще большей проблемой. Например, одно исследование показало, что ChatGPT имеет тенденцию выдумывать фальшивые анонимные источники, когда ему поручают написать новостную статью о бывшем мэре Нью-Йорка Майкле Блумберге. На самом деле, эти так называемые «анонимные источники», по-видимому, «оскорбляли» Блумберга за «использование его богатства для влияния на государственную политику», согласно NBC New York.

Все больше и больше исследований, которые демонстрируют, что ChatGPT и его преемники, такие как ChatGPT-4, распространяют ложную информацию, если им предоставляется такая возможность. В настоящее время внезапная популярность этого ИИ подчеркивает необходимость большего осознания недостатков искусственного интеллекта и более тщательного изучения того, как его обучать и, возможно, регулировать.

Делитесь нашими материалами с друзьями!

 

 

Заказать разработку сайта