Искусственный интеллект уже влияет практически на все сферы жизни. Однако пока его использование приносит обществу больше ущерба, чем обещанных выгод, – и проблема тут не в самой технологии, а в ее применении. Необходима политика, которая могла бы это изменить.
  |   Дарон Аджемоглу

Искусственный интеллект (ИИ) часто называют самой потрясающей технологией нашей эпохи, обещающей преобразовать нашу экономику, жизнь и возможности. Некоторые даже рассматривают ИИ как способ добиться быстрого прогресса в создании «интеллектуальных машин», которые вскоре превзойдут человеческие навыки в большинстве сфер. В последнее десятилетие развитие ИИ действительно было очень успешным, особенно в области разработки новых методов обработки статистической информации и машинного обучения, которые позволяют работать с огромными массивами неструктурированных данных. Это уже повлияло практически на все сферы деятельности человека: алгоритмы ИИ сегодня используются всеми онлайн-платформами и в различных отраслях, от производства и здравоохранения до финансов и оптовой и розничной торговли. Полагаться на ИИ стали и государственные учреждения, в частности судебная система, таможенный и иммиграционный контроль.

В своей недавней работе «Вред от ИИ» (Harms of AI) я привожу аргументы в пользу того, что новейшие ИИ-технологии, особенно те, что базируются на доминирующей сегодня парадигме распознавания статистических закономерностей и обработки больших данных, с большей вероятностью ведут к негативным социальным последствиям, нежели приносят обещанную пользу.

Эти последствия можно увидеть на товарных рынках, в сфере рекламы и на рынке труда – применительно к неравенству, ограничению заработной платы и уничтожению рабочих мест. У применения ИИ есть и более широкие социальные последствия, которые затрагивают область социальных коммуникаций, политического дискурса и демократии.

ИИ, контроль информации и товарные рынки

Во всех этих случаях главная проблема заключается не в технологиях ИИ как таковых, а в том, как к данным и их использованию подходят ведущие компании, которые оказывают огромное влияние на то, в каком направлении развиваются эти технологии.

Возьмем, к примеру, применение машинного обучения и использование больших данных в рекламе и разработке новой продукции. Хотя в принципе использование этих методов может дать потребителям преимущества – например, за счет улучшения качества товаров и возможности адаптировать продукцию к индивидуальным потребностям, – в конечном итоге применение ИИ в этой сфере может иметь ряд негативных последствий для благосостояния потребителей. Прежде всего, фирмы, которые получают больше информации о своих клиентах, могут использовать ее для ценовой дискриминации, потенциально забирая себе все больше экономической ренты, которая в ином случае оставалась бы у потребителей. Сбор данных о потребителях на олигополистических рынках также может ослаблять ценовую конкуренцию. На интуитивном уровне понятно, что при ценовой дискриминации со стороны фирмы, обладающей наиболее полной информацией о потребителях, ее ключевые клиенты могут стать менее привлекательными для других бизнесов, что способствует повышению последними цен. Такое повышательное давление на цены, конечно, будет и дальше наносить урон благосостоянию потребителей.

Применение новых технологий в других сферах может причинять потребителям еще больше вреда. Начнем с того, что онлайн-платформы могут получить контроль над огромным объемом данных, поскольку, когда они собирают или покупают информацию об одних пользователях, они также получают доступ к данным о других пользователях. Такого рода экстерналии данных чаще всего связаны с тем, что люди выкладывают в открытый доступ информацию о своих друзьях и контактах или делятся информацией, имеющей отношение к информации о других людях той же самой демографической группы. Экстерналии данных могут способствовать сосредоточению слишком больших объемов информации у определенных компаний, нести угрозу конфиденциальности и сокращать выгоду потребителя.

Что еще хуже – компании могут использовать свое информационное преимущество с точки зрения знания о предпочтениях потребителя для того, чтобы манипулировать его поведением. Экономические модели строятся исходя из предположения, что решения потребителей всегда в полной мере рациональны и не предполагают такого манипулирования. Однако оно вполне вероятно, когда потребители не в полной мере осознают, насколько много новых методов сбора и обработки данных используется для того, чтобы отслеживать и прогнозировать их поведение.

Основная идея такого манипулирования была описана специалистами по антимонопольному законодательству Хансоном и Кайсаром (Джоном Хансоном и Дугласом Кайсаром из Гарвардской школы права в работе «Всерьез о бихевиорализме: некоторые свидетельства манипулирования на рынке» (Taking Behavioralism Seriously: Some Evidence of Market Manipulation), вышедшей в 1999 г. – Прим. «Эконс»). Они обнаружили, что «если кто-то признает, что индивиды систематически ведут себя нерационально, то исходит из того, что другие будут использовать это для извлечения выгоды». И правда, реклама всегда содержала элемент манипулирования. Но инструменты, которые использует ИИ, могут расширить степень этого манипулирования.

Уже есть примеры такого манипулирования посредством ИИ. Так, сетевой гипермаркет Target [в США] успешно вычисляет среди своих клиентов беременных женщин и начинает засыпать их скрытой рекламой товаров для детей. Другие компании на базе имеющихся данных о клиентах рассчитывают моменты, когда те находятся в плохом настроении, и активно рекламируют товары, которые люди в таком состоянии склонны импульсивно покупать. Манипулирование происходит и через платформы – например, YouTube и Facebook используют свои алгоритмы, чтобы рассчитать, к какой специфической группе относится тот или иной пользователь, и предложить ему те видео и новости, которые заинтересуют его больше всего.

ИИ и неравенство на рынке труда

Влияние ИИ-технологий на рынок труда может быть еще более пагубным. Многие данные свидетельствуют о том, что рост неравенства на рынках труда в США и нескольких других развитых экономиках частично вызван быстрым внедрением автоматизированных технологий, которые замещают работников с низкой и средней квалификацией. Негативные последствия автоматизации для неравенства были ощутимы еще до появления ИИ. Тем не менее в одной из работ я и мои соавторы находим, что целью ускорения внедрения ИИ в США с 2016 г. была автоматизация, то же можно сказать и о других технологиях. Применение ИИ и активное использование данных расширяют автоматизацию рынка труда и могут усилить тренд на рост неравенства, наблюдавшийся в США и других развитых экономиках в последние несколько десятилетий.

В принципе, автоматизация может повышать экономическую эффективность. Но есть причины ожидать, что результат будет обратным. Главная из них – несовершенство рынка труда, из-за чего стоимость труда для фирм оказывается выше социальных альтернативных издержек. Это стимулирует фирмы активно внедрять автоматизацию с тем, чтобы рента оставалась у них, а не переходила работникам, несмотря на то что такая практика снижает выгоды для общества.

Другие формы использования ИИ могут иметь еще более серьезные негативные последствия. К ним относится применение алгоритмов и данных о сотрудниках с тем, чтобы усилить мониторинг их работы. Когда работники получают часть ренты, которую зарабатывает фирма (это могут предусматривать условия договора), более тщательное отслеживание их деятельности может быть выгодно компаниям, желающим вернуть себе часть этой ренты. Но такое перемещение ренты социально неэффективно – это затратная и дорогостоящая деятельность, которая не способствует увеличению общественной выгоды, а лишь перераспределяет ее от одной группы агентов к другой.

ИИ, общество и демократия

Автоматизация на основе ИИ может иметь и другие негативные последствия. Хотя в ближайшем будущем этот процесс вряд ли приведет к массовой безработице (эффект замещения работников на рынке труда за счет автоматизированных технологий до сих пор был скромным), все же вытеснение живого труда несет в себе множество разрушительных последствий для общества. Граждане с низкой привязанностью к труду могут меньше участвовать в общественной и политической жизни. Но что еще важнее – автоматизация сдвигает баланс власти от труда к капиталу, и это может иметь далеко идущие последствия для демократических институтов. Иными словами, в той степени, в которой демократическая политика зависит от распределения сил между трудом и капиталом, уравновешивающими друг друга, автоматизация может вредить демократии, потому что нивелирует значение труда в процессе производства.

Влияние ИИ на демократию не ограничивается автоматизацией. Среди сфер, которые ИИ изменил наиболее радикально, – коммуникации и потребление новостей, особенно через продукты и услуги, предлагаемые платформами различных социальных сетей. Использование ИИ и активный сбор данных пользователей уже изменили социальный дискурс и, как свидетельствуют имеющиеся данные, способствовали поляризации общества, разобщив его в понимании фактов и приоритетов, в то время как такая общность крайне важна для демократической политики. Как и предполагал 20 лет назад Касс Санстейн (имеется в виду книга профессора Гарвардской школы права Касса Санстейна Republic.com. – Прим. «Эконс»), «фрагментация и экстремизм… являются предсказуемыми последствиями любой ситуации, когда единомышленники говорят только сами с собой». Он подчеркивал, что без обмена опытом разнородному обществу будет гораздо сложнее решать социальные проблемы. И действительно, социальные сети на базе ИИ, по-видимому, способствовали этому типу фрагментации и усилению экстремизма, с одной стороны, и распространению дезинформации – с другой.

Проблема с направлением технологий

По тону этого эссе может сложиться впечатление, что внедрение ИИ обязательно приведет к катастрофическим социальным последствиям и что я решительный противник технологий. И то и другое неправда. ИИ – многообещающая технология. Проблема же заключается в текущем направлении развития и использования ИИ – для расширения прав и возможностей корпораций (а иногда и правительств) за счет работников и потребителей. Текущий подход является следствием бизнес-практик и приоритетов корпораций, которые сегодня контролируют ИИ, а также создаваемых ими стимулов для исследователей, участвующих в создании этих систем.

Возьмите социальные сети. Главная причина проблем, которые я перечислил, в том, что такие платформы стараются максимизировать вовлеченность пользователей за счет всевозможных привлекающих «приманок». Эта цель коренится в их бизнес-модели, которая, в свою очередь, сосредоточена на монетизации данных и трафика за счет размещения рекламы. Это возможно благодаря тому, что данная сфера не регулируется.

То же самое верно и в отношении отрицательных эффектов автоматизации. ИИ может использоваться для повышения производительности работников и создания для них новых задач. И тот факт, что ИИ используется преимущественно для автоматизации, – это сознательный выбор. Выбор такого направления использования технологий диктуют ведущие технологические компании, чьи приоритеты и бизнес-модели ориентированы на алгоритмическую автоматизацию.

В целом направление, в котором сегодня развивается ИИ, расширяет возможности корпораций за счет работников и граждан, а также часто предоставляет правительствам дополнительные инструменты для контроля и иногда даже репрессий (например, новые методы цензуры в интернете и программное обеспечение для распознавания лиц).

Вывод: необходимость регулирования

Все вышесказанное приводит к простому выводу: текущие проблемы с ИИ – это проблемы нерегулируемого ИИ и игнорирования масштабных последствий этого для общества. Было бы наивно ожидать, что нерегулируемые рынки сделают правильный выбор между общественным благом и прибылью от монополизации данных.

Но проблема заключается не только во власти монополий. Даже если бы число крупных технологических компаний не ограничивалось несколькими нынешними гигантами, нет гарантии, что у них были бы разные бизнес-модели и разный подход к использованию ИИ. Следовательно, антимонопольное законодательство – не самый мощный и, конечно, недостаточный инструмент для борьбы с возможным вредом, который может нести использование ИИ. Поэтому политика в отношении ИИ должна быть сфокусирована на том, чтобы перенаправить само развитие технологий: от автоматизации и сбора данных, расширяющих власть корпораций, – на методы, которые создают новые возможности работникам и гражданам. Приоритетом новой политики должно также стать системное регулирование сбора и использования данных, использования ИИ для манипулирования поведением пользователей, онлайн-коммуникации и обмен информацией.

Учитывая широкое применение ИИ и больших данных, я бы также предложил новый регуляторный подход, который можно назвать «предупредительным регулирующим принципом»: упреждающее (ex-ante) регулирование должно замедлить распространение и использование ИИ, особенно в тех сферах, где его широкомасштабное применение несет большие политические и социальные издержки.

ИИ-технологии, влияющие на политический дискурс и демократическую политику, могут стать главными «кандидатами», в отношении которых может применяться такой предупредительный регулирующий принцип. Поскольку (чрезмерную) автоматизацию и ее социальные последствия будет сложно обратить вспять, данный принцип регулирования следовало бы распространить и на использование ИИ для автоматизации и мониторинга рынка труда.

Оригинал статьи опубликован на портале VoxEU.org. Перевод выполнен редакцией Econs.online.