Языковые нейросети, способности которых сопоставимы с человеческими, могут оказаться полезными для экономистов, считают сами ученые. Такие инструменты, как ChatGPT, могут упростить подготовку научных работ и помочь в изучении и преподавании экономической науки.
  |   Ирина Рябова Эконс, Алексей Архипов Эконс

«Эпоха искусственного интеллекта началась», – написал 21 марта 2023 г. в своем блоге основатель Microsoft Билл Гейтс, описав свою встречу с командой OpenAI и наблюдения за тестированием разрабатываемой ею модели GPT (Generative Pre-trained Transformer), успешно сдавшей «экзамен по биологии» и получившей максимально возможный балл. Подобную революцию в технологиях можно сравнить с появлением мобильных телефонов и интернета, написал Гейтс.

GPT – один из самых известных примеров больших языковых моделей (Large Language Model, LLM), нейросетей, которые обучаются на большом количестве данных и затем способны генерировать тексты, неотличимые от созданных человеком. Пристальное внимание со стороны не только профессионального сообщества, но и широкой общественности ИИ-модель OpenAI привлекла после того, как в ноябре 2022 г. компания запустила ChatGPT, натренированный «вести диалог» с человеком, получать от него текстовые запросы и отвечать на них, а в марте 2023 г. – модификацию GPT-4, способную воспринимать не только текст, но и изображения. ChatGPT установил рекорд среди технологических продуктов по скорости привлечения новых пользователей: всего за пять дней после запуска их число превысило 1 млн, а в январе 2023 г., менее чем через три месяца, достигло 100 млн. Для сравнения: социальной сети Instagram (принадлежит Meta, которая признана в РФ экстремистской и запрещена) понадобилось 2,5 года, чтобы достичь этой отметки, а TikTok – 9 месяцев.

Работой генеративного ИИ – то есть искусственного интеллекта, способного генерировать тексты, коды, изображения, – заинтересовались и экономисты. «Несмотря на значительную неопределенность в отношении потенциала генеративного ИИ, его способность генерировать контент, неотличимый от результатов, созданных человеком, и разрушать коммуникационные барьеры между людьми и машинами отражает значительный прогресс с потенциально большими макроэкономическими эффектами», – говорится в недавнем докладе аналитиков Goldman Sachs. По их оценкам, повышение производительности труда, связанное с ИИ, и сокращение трудозатрат могут добавить мировому ВВП дополнительные 7%, или $7 трлн, в течение десятилетнего периода. Однако развитие генеративного ИИ также может вызвать «значительные потрясения» на рынке труда, автоматизировав порядка 300 млн рабочих мест во всем мире, которые, таким образом, окажутся уязвимыми перед новыми технологиями.

GPT и «автоматизация» исследований

У больших языковых моделей, таких как ChatGPT, есть потенциал, чтобы произвести революцию в исследованиях в области экономики и других научных дисциплин, считает Антон Коринек, профессор Виргинского университета. Он проанализировал 25 вариантов использования GPT в шести областях, в которых ИИ-модели могут быть полезны в качестве как помощников исследователей, так и наставников: осмысление идей, написание текстов, обзорные исследования, анализ данных, программирование и математические расчеты.

Экономисты, использующие преимущества языковых моделей – например, способность GPT генерировать контент и потреблять большие объемы текста быстрее, чем люди, – смогут значительно повысить свою продуктивность. В первую очередь это касается «микрозадач» – работ, которые исследователи выполняют каждый день, но которые слишком незначительны, чтобы нанимать для их выполнения отдельного помощника.

Например, ИИ может быть полезен в проведении мозговых штурмов и поиске контраргументов, в написании и редактировании кода, при переводах и создании обобщающих текстов, при создании привлекающих внимание заголовков или сообщений для социальных сетей, способствующих продвижению результатов исследования. Так, Коринек попросил GPT провести мозговой штурм и назвать каналы, через которые достижения в сфере ИИ могут увеличить неравенство, а потом привести контраргументы, и в обоих случаях получил вполне убедительные ответы.

ИИ может генерировать тексты, которые выглядят правдоподобно и авторитетно, указывает исследователь, однако пока ИИ не способен генерировать новую информацию – только обобщать имеющуюся. Люди должны с осторожностью использовать языковые модели в своей работе и сфокусироваться на собственных сравнительных преимуществах – постановке вопросов, предложении направлений, где можно получить на них ответы, и оценке полученной информации, советует исследователь.

«Я обнаружил, что многие из моих студентов уже неплохо разбираются в ChatGPT и используют его для решения множества различных задач. А еще я узнал от своих учеников, что они используют языковые модели в качестве не только помощников, но и наставников», – говорит Коринек, обсуждая свое исследование. «Вы можете изучать экономику при помощи учебника, друзей, YouTube, частных репетиторов, управления бизнесом, а теперь и с помощью GPT и в более широком смысле – с помощью больших языковых моделей», – согласны с ним Тайлер Коуэн и Алекс Табаррок, профессора Университета Джорджа Мейсона и соавторы влиятельного экономического блога Marginal Revolution.

Как указывают Коуэн и Табаррок, генеративный ИИ хорошо работает в ряде областей, например в подготовке текстов, ответах на вопросы с недлинными цепочками причинно-следственных связей, решении простых экономических моделей. Однако нейросети иногда «галлюцинируют», то есть видят взаимосвязи и ассоциации, которых на самом деле не существует, поэтому использовать их, например, для обобщений научных работ стоит с осторожностью.

Кроме того, GPT по большей части не способен «заглянуть за угол» (сделать некий новаторский вывод), если в исходном тексте не содержится подобных озарений, и зачастую нуждается в руководстве со стороны человека, чтобы эффективно справиться с долгой цепочкой сложных рассуждений. Однако здесь возникает сложность: если пользователь знает достаточно, чтобы задавать дополнительные уточняющие вопросы нейросети, высока вероятность, что он уже хорошо знаком с основными выводами по теме, которая его интересует. И наоборот, если у пользователя недостаточно информации по интересующей теме, он не будет знать, какие направляющие вопросы задавать GPT.

Нейросети – инновационный инструмент, и они требуют новых методов взаимодействия от ученых, предупреждают Коуэн и Табаррок: взаимодействие с GPT не похоже на процесс программирования или использование привычного программного обеспечения и больше напоминает сотрудничество с умным и знающим ассистентом исследователя – представителем иной культуры.

Для оптимизации процесса «общения» с генеративным ИИ Коуэн и Табаррок дают ряд советов и рекомендаций, каким образом составлять эффективно работающие запросы для GPT (этот процесс называется prompt engineering), например такие:

1. Используйте в вопросе много деталей и специальных ключевых слов. Чем подробнее будет запрос, тем лучше GPT сможет на него ответить. На простой вопрос «что такое марксизм?» можно получить ответ, интересный не более, чем статья в «Википедии»; гораздо полезнее поинтересоваться у ИИ об определенном экономисте-марксисте или об определенной экономической теории, связанной с марксизмом, и как она менялась с течением времени.

2. Определите тон и атмосферу «диалога» с GPT: попросите дать ответ от лица эксперта (например, «как мог бы объяснить причины инфляции нобелевский лауреат Милтон Фридман»), провести сравнение и выявить отличительные особенности двух экономических концепций («сравните взгляды Милтона Фридмана и Пола Кругмана на ловушку ликвидности») и представить ответы в виде списка («какие факторы лежат в основе быстрого экономического роста Ирландии в 1990-х гг.»).

3. Задавайте много дополнительных последовательных вопросов по определенной теме: взаимодействие с моделью больше похоже на выжимание сока из лимона, чем на бросок дротика в цель. Попросите ИИ кратко изложить интересующую теорию, а потом попросите изменить формат ответа – например, вместо обычного текста представить ответ в виде поэмы или дать описание, которое может понять старшеклассник.

4. Используйте GPT для выдвижения собственных новых идей и гипотез, поскольку ИИ может быть полезен при исследовании спектра мнений в целом, когда требуются общие идеи и аргументы для последующего рассмотрения.


Попугай или сверхразум

Всплеск интереса к языковым моделям последнего поколения разделил общество на два основных лагеря. Один называет GPT «стохастическими попугаями» или «автодополнением для всего», поскольку все, что «рождает» языковая модель, основывается на загруженной в нее информации и математическом расчете наиболее вероятного ее продолжения, не всегда учитывающего суть исходной информации. Другой лагерь приравнивает GPT к искусственному интеллекту, который способен действовать как человеческий разум.

Способности GPT-4 сопоставимы с человеческими, пришли к выводу исследователи Microsoft (контролирует компанию OpenAI). По их мнению, по итогам тестов GPT-4 демонстрирует зачатки общего искусственного интеллекта (ОИИ; artificial general intelligence, AGI). ОИИ, в отличие от «обычного» ИИ, способен не просто оперировать информацией, но в той или иной степени понимать ее смысл, то есть обладать «разумом».

ChatGPT уже используется в самых разных областях: нейросеть, например, прекрасно справляется с такими задачами, как уточнение медицинских диагнозов на основе списка симптомов, помогает при вынесении судебных решений и разработке графика строительства. Российский студент с помощью ChatGPT написал дипломную работу, которую успешно защитил, а Рид Хоффман, сооснователь деловой социальной сети LinkedIn (в РФ заблокирована), недавно опубликовал книгу, написанную в соавторстве с ChatGPT. В конце марта деловое агентство Bloomberg представило собственную языковую модель, которая специализируется на финансовой информации и будет способна оперативно анализировать финансовые данные, чтобы помочь в оценке рисков, настроений на рынке и, возможно, автоматизировать задачи бухгалтерского учета, аудита и т.п.

С другой стороны, как и всякая прорывная инновация, GPT воскрешает страхи о «восстании машин» и угрозе уничтожения человечества, которую таит в себе развитие ИИ. Илон Маск (один из сооснователей OpenAI) недавно напомнил старую шутку о технарях-агностиках, которые занялись созданием искусственного сверхразума, чтобы узнать, есть ли Бог. После окончания работы они задают соответствующий вопрос ИИ, который отвечает: «Теперь есть».

За пару дней до того, как опубликовать эту шутку, Маск подписал открытое письмо с призывом временно приостановить обучение ИИ-систем, более производительных, чем GPT-4, из-за неконтролируемых рисков «потери контроля над нашей цивилизацией». Продвинутый ИИ, конкурентоспособный по отношению к людям в решении задач, может представлять собой глубокое изменение в истории жизни на Земле, и его следует планировать и управлять им с соразмерной тщательностью – к сожалению, пока такого уровня планирования и управления не существует, говорится в письме. Чтобы «наслаждаться процветающим будущим с ИИ», необходимо взять паузу для разработки протоколов безопасности по проектированию и усовершенствованию ИИ. На 11 апреля письмо собрало более 20000 подписей, в том числе крупных ученых и предпринимателей – например, в числе подписавших профессор MIT Дарон Аджемоглу, сооснователь Apple Стив Возняк, писатель Юваль Ной Харари, научные сотрудники ведущих университетов (в том числе MIT, Калифорнийского, Гарварда, Стэнфорда, Кембриджа), представители крупнейших технологических компаний (Google, Amazon, Microsoft).

31 марта Италия первой в мире временно ограничила доступ к ChatGPT, объяснив, что ИИ-модель, возможно, нарушает европейское законодательство о персональных данных, безосновательно собирая личные сведения о пользователях и не обращая внимания на их возраст (в Италии участие в беседах с подобными чатами разрешено людям старше 13 лет). В январе научные издательства Nature и Science запретили указывать ChatGPT в качестве соавтора научных статей.

В любом случае развитие GPT уже сигнализирует, что наиболее востребованным навыком работника в этом веке станет способность эффективно общаться с ИИ, то есть составлять хорошие запросы для того, чтобы получить от языковой модели внятные и полезные ответы, полагает колумнист The Atlantic Чарли Ворцел. Для этого людям необходимо хорошо разбираться в предмете, относительно которого происходит общение с нейросетью: Ворцел приводит слова предпринимателя и писателя Дэна Шиппера, который сравнивает ChatGPT с умным и энергичным младшим сотрудником, обладающим нужными навыками и энтузиазмом, но в то же время неопытным и совершающим незаметные, но существенные ошибки.

Таким же образом предлагает относиться к GPT-4 и Рид Хоффман. В своей книге, написанной совместно с ChatGPT, он описывает несколько принципов, полезных в работе с ИИ. Так, он предлагает относиться к GPT-4 как к ассистенту исследователя – старшекурснику, а не как к всеведущему оракулу. Такой помощник одновременно силен и ограничен в определенных отношениях: GPT-4 имеет доступ к невероятно широкой базе знаний, но он не эксперт, его понимание любого конкретного предмета довольно поверхностно, и он ошибается.

Темы для исследований и этика от ChatGPT

Редакция «Эконс» задала ChatGPT вопрос о том, какие направления в экономических исследованиях сейчас наиболее интересны. В ответ ИИ составил список из восьми направлений:

«Существует много интересных направлений в экономических исследованиях, и выбор наиболее интересного зависит от личных предпочтений и профессиональных интересов. Однако ниже я предлагаю несколько актуальных направлений, которые сейчас вызывают особый интерес и могут быть полезными для изучения.

1. Экономическая глобализация: изучение процессов экономической интеграции между различными странами и регионами, анализ тенденций в мировой торговле и инвестициях.

2. Климатические изменения и экономика: анализ влияния климатических изменений на экономику, изучение мер по приспособлению к изменениям климата и оценка экономических последствий перехода на низкоуглеродную экономику.

3. Инновации и экономический рост: изучение факторов, влияющих на инновационную активность в экономике и их взаимосвязь с экономическим ростом, анализ новых технологий и их влияния на экономику.

4. Социальная экономика: изучение социальных аспектов экономики, таких как социальная справедливость, равенство и устойчивость, анализ социальных программ и политик, направленных на улучшение благосостояния населения.

5. Криптовалюты и блокчейн: анализ новых технологий в финансовой сфере, таких как криптовалюты и блокчейн, и их влияния на экономику и финансовую систему.

6. Экономическая политика: анализ государственной экономической политики, ее эффективности и последствий, оценка макроэкономических последствий реформ и изменений в налоговой и бюджетной политике.

7. Экономика здравоохранения: изучение экономических аспектов здравоохранения, таких как затраты на здравоохранение, доступность и качество медицинских услуг, экономические последствия эпидемий и пандемий.

8. Поведенческая экономика: изучение человеческого поведения».

Через несколько дней редакция задала ChatGPT тот же вопрос, и ответ был немного другим по форме и несколько более общим. ИИ-модель привела пять актуальных направлений в экономических исследованиях: исследования поведения потребителей; исследования в области развития экономики; в области управления бизнесом; в области финансов; в области экономической политики.

Для сравнения: наиболее популярными направлениями, по которым публиковались работы в одном из самых авторитетных экономических журналов American Economic Review, оказались микроэкономика, экономика труда и экономика народонаселения, а также макроэкономика и монетарная экономическая теория. Всего с января 2021 по апрель 2023 г. в AER было опубликовано 371 исследование, которым в общей сложности присвоено 1824 кода по JEL-классификации (отображают тематику статьи). На коды, относящиеся к разделу «микроэкономика», пришлось 22,5% всех кодов, на «экономику труда и народонаселения» – около 12%, на «макроэкономику и монетарную экономическую теорию» – примерно 11%.

«Эконс» попросил прокомментировать список ChatGPT Александра Морозова, директора департамента исследований и прогнозирования Банка России:

– Ответы от ChatGPT вполне качественные, хотя два варианта и отличаются друг от друга. Второй носит более обобщенный характер, расширяющий тематику и выходящий за пределы классических экономических исследований. Поэтому мне больше близок первый вариант, сочетающий в себе конкретику и непосредственно относящийся к экономике. Почти все из перечисленных направлений находятся в фокусе внимания исследователей Банка России. Конечно, можно придраться, что первое направление названо глобализацией, а не деглобализацией, которая наблюдается последние годы и которая заставляет по-новому взглянуть на эволюцию мирохозяйственных связей. Но в целом можно констатировать, что ChatGPT успешно справился с поставленной задачей и на роль ассистента исследователя подходит уже сейчас.

Интересно было бы посмотреть на результаты, которые выдаст следующая версия ИИ: GPT-4. Может ли ИИ пойти дальше и заменить исследователя? Насколько я понимаю, в ближайшее время – нет. ИИ сейчас не генерирует новое знание, а только обобщает и систематизирует уже созданное, а если новое знание и синтезируется, то по заданному алгоритму. При этом потенциал «глубокого обучения» (deep learning) – следующей фазы развития ИИ, предполагающий самостоятельную постановку и решение задач и самообучение в результате этого, – пока непонятен. Неясно, насколько этот потенциал способен сочетать в себе этические принципы, эмпатию и другие моральные аспекты человеческой деятельности, проявляющиеся в том числе в экономических отношениях. «Теория, мой друг, суха, но зеленеет жизни древо» – цитата из «Фауста», которая здесь весьма уместна.

Но зачем забегать вперед? Давайте использовать уже имеющиеся возможности ИИ, а дальше будет видно.

Редакция «Эконс» также попросила ChatGPT привести аргументы против нескольких утверждений, противоположных по смыслу:

– что ChatGPT может играть в экономических исследованиях только второстепенную роль и выполнять обязанности старательного, но не слишком опытного ассистента ученого-человека;

– что ChatGPT представляет собой сверхразум, способный гораздо лучше ученого-человека проводить исследования в области экономики;

– что ChatGPT – это не более чем чрезвычайно развитая функция Т9 и будет всегда зависеть от человека;

– что ChatGPT – это искусственный интеллект, способности которого сравнимы или значительно превосходят возможности человеческого разума, и развитие GPT может привести к гибели человечества.

Как и ожидалось, в каждом случае ИИ-модель выдвинула список контраргументов, опровергающих начальное утверждение. С одной стороны, ChatGPT указал, что нейросеть может не только выполнять второстепенные задачи: ее способность анализировать большие объемы данных, создавать экономические модели и автоматически анализировать данные делает ее ценным инструментом для принятия решений в экономике. С другой стороны, ChatGPT подчеркнул, что он не сверхразум и не может заменить ученых-экономистов, поскольку не может полностью понимать экономические процессы и их взаимосвязи, не может самостоятельно освоить новые области знаний, а также, в отличие от людей, не может общаться и обмениваться идеями с другими людьми, что ограничивает его способность к развитию и изучению новых областей знаний.

ChatGPT также ответил, что является гораздо более сложной и мощной технологией, чем простая функция автодополнения, и он имеет преимущества перед человеком в некоторых областях: например, он может обрабатывать большие объемы данных и делать выводы на основе статистических закономерностей, которые может быть трудно обнаружить человеку.

Но утверждение, что развитие GPT приведет к гибели человечества, «не подтверждается фактами и основано на мифах и страхах», сообщила ИИ-модель. Так, ChatGPT не обладает эмоциональным интеллектом и не может понимать чувства и эмоции, которые являются важной частью многих межличностных взаимодействий, и не может принимать решения самостоятельно: он работает на основе алгоритмов и правил, заданных человеком. ChatGPT требует обучения и настройки со стороны человека, так как без участия человека он не может улучшать свои навыки и совершенствовать свою работу. «Как и любой другой технологический продукт, ChatGPT может использоваться как для блага, так и для вреда. Его использование должно контролироваться человеком, чтобы предотвратить непреднамеренные или намеренные последствия, которые могут быть вредными для общества», – ответил ChatGPT.

Парадокс эпохи ИИ заключается в том, что по мере совершенствования современных больших языковых моделей, требующих от человека все меньше и меньше, людям нужно будет требовать от самих себя все большего и большего, пишет в заключении своей книги Рид Хоффман. Люди должны настаивать на том, чтобы рассматривать GPT и его преемников как партнеров по сотрудничеству, а не как собственную замену, продолжать выяснять, как сохранить человеческое творчество, человеческое суждение и человеческие ценности в центре процессов, которые люди совершенствуют для работы с ИИ. «Мы можем использовать ИИ, чтобы он помог нам делать меньше, или мы можем использовать ИИ, чтобы он помог нам работать лучше. Второй вариант будет способствовать прогрессу человечества», – подытоживает Хоффман вместе со своим соавтором GPT.