Перейти к:
«Поймай меня, если сможешь». ChatGPT сегодня: искусственный интеллект, способный написать для нас научную статью или это игра в имитацию?
https://doi.org/10.21886/2308-6424-2023-11-3-10-15
Аннотация
Перспективы применения искусственного интеллекта (ИИ) сегодня являются одной из наиболее обсуждаемых тем в медицине. Сама возможность в ближайшем будущем иметь под рукой всезнающего виртуального помощника кажется невероятно заманчивой, поэтому представляется вполне естественным видеть многочисленные отчёты о применении каждой вновь появляющейся передовой нейросетевой технологии в различных областях медицины и биотехнологий. Безусловно, наибольший общественный резонанс за последнее время вызывало появление ChatGPT, потому как лежащий в его основе новый алгоритм обработки естественного языка позволил вывести общение человека и машины на совершенно новый уровень. Конечно, несмотря на бессчётные преимущества использования ИИ, использование ChatGPT и других инструментов ИИ в медицине вызывает множество этических и юридических вопросов. Однако стоит вспомнить историю появления любой другой прорывной технологии, чтобы принять существующую полемику как неотъемлемую часть прогресса. Желание человека облегчить свой труд и переложить часть нагрузки на вычислительную машину всегда заставляет его делать шаг вперёд в развитии технологий, которые в итоге не позволяют человеку трудиться меньше, а заставляют его работать по-новому.
Для цитирования:
Коган М.И., Иванов С.Н. «Поймай меня, если сможешь». ChatGPT сегодня: искусственный интеллект, способный написать для нас научную статью или это игра в имитацию? Вестник урологии. 2023;11(3):10-15. https://doi.org/10.21886/2308-6424-2023-11-3-10-15
For citation:
Kogan M.I., Ivanov S.N. "Catch Me If You Can". ChatGPT today: artificial intelligence able to write a scientific paper for us or is it a game of imitation? Urology Herald. 2023;11(3):10-15. (In Russ.) https://doi.org/10.21886/2308-6424-2023-11-3-10-15
Истоки разработки искусственного разума. Искусственный интеллект в медицине
Концепция использования компьютеров для имитации разумного поведения и критического мышления была впервые описана Аланом Тьюрингом в 1950 году [1]. В книге «Вычислительные машины и разум» он привёл тест, названный впоследствии в честь автора, позволяющий определить, способен ли компьютер к человеческому мышлению. Имена западных основоположников искусственного интеллекта (ИИ) — А. Тьюринга, М. Мински, Д. Маккарти — широко известны. История развития машинного интеллекта в СССР, безусловно, не могла быть широко освещена в мировой литературе, однако некоторые из ярких достижений наших соотечественников — Д. Поспелова, В. Глушкова, А. Ершова, А. Кронрода, стоявших у истоков технологий искусственного разума, — не могли оставить равнодушными научное сообщество и авторитетные издания [2–5]. С тех пор, как была предпринята попытка научить компьютер играть в шахматы, главным полигоном для испытания интеллектуального превосходства программных алгоритмов стала шахматная доска. В этом направлении параллельно работали две ведущие на тот момент команды разработчиков — из США и СССР. Детищем первых стал разработанный в Массачусетском технологическом институте Д. Маккарти и его студентами алгоритм «A Chess Playing Program for the IBM 7090 Computer», а в СССР работала группа А. Кронрода из национального исследовательского центра «Курчатовский институт», плодом работы которой стала программа, названная в честь богини шахмат — Каисса. Каисса первая в мире получила титул «чемпион мира по компьютерным шахматам» в 1974 году в Стокгольме [6].
Заря эры применения искусственного интеллекта в медицине восходит к 1970-м годам, но только в XXI веке технологии машинного обучения набрали обороты. В начале ИИ использовался как вспомогательный инструмент в системах, призванных помочь врачу в диагностике заболеваний и формировании рекомендаций по лечению. С развитием вычислительной мощности и алгоритмов машинного обучения ИИ стал более сложным и сегодня способен анализировать большие объёмы медицинских данных в короткие сроки и обучаться на их основе, совершенствуясь с каждым новым вычислением. На сегодняшний день применение ИИ в диагностике заболеваний, при выборе тактики лечения в стандартных ситуациях не уступает человеку и даже в некоторых случаях превосходит его ввиду большей скорости и отсутствия «человеческого» фактора, будь то влияние стресса или переутомления. Однако внедрение ИИ в медицину все ещё находится на ранней стадии, необходимы дополнительные исследования для обеспечения его эффективности и безопасности [7].
Открытие 2022 года — ChatGPT. Чем появление очередного чат-бота с искусственным интеллектом смогло привлечь внимание столь обширной аудитории?
Важнейшей составляющей человеческого мышления, безусловно, является сфера социального общения и тесно связанная с ним сложная система естественного языка. Эта сфера живого интеллекта признается одной из самых сложных для искусственного разума. Технологии обработки естественного языка (ОЕЯ) зародились в тех же 1950-х годах на стыке искусственного интеллекта и лингвистики. В итоге системы ОЕЯ должны извлекать смысл («семантику») из текста: отношения между текстовыми единицами — частями речи, такими как существительные, глаголы и прилагательные, — с чётким определением смыслового содержания высказывания вне зависимости от используемых лексических и грамматических форм, правильности и уместности их применения [8]. Решение этой задачи стало возможным только в текущие годы, когда мы стали способны подбирать «обучающий» материал для нейросетевого обучения в масштабах, приближенных к тем, которые требуются живому человеку для формирования естественного языка в процессе онтогенеза.
ChatGPT (“OpenAI”, San Francisco, CA, USA) — чат-бот с искусственным интеллектом, выпущенный в ноябре 2022 года [9]. Его аудитория достигла 100 миллионов пользователей всего за два месяца. Билл Гейтс считает, что ChatGPT изменит мир так же заметно, как это сделало появление персональных компьютеров и всемирной паутины. По сути, при вводе запроса ChatGPT автоматически генерирует ответ, основанный на тысячах интернет-источников, что позволяет говорить о нем как минимум, как о Google будущего. ChatGPT основан на последних достижениях в области обработки естественного языка, которые позволили модели генерировать очень точные и согласованные ответы на широкий спектр запросов. Одной из ключевых особенностей, которая делает ChatGPT выдающимся достижением современности, является его способность обрабатывать и понимать входные данные на естественном языке и генерировать ответы подобно тому, как это делает человек. Кроме того, ChatGPT использует передовые методы глубокого нейросетевого обучения, чтобы учиться на больших наборах данных и генерировать высокоточные и релевантные ответы. Эти технологии сделали ChatGPT одной из самых передовых моделей ИИ для обработки естественного языка и открыли новые возможности для его применения в самых разных областях, включая медицину. Так, некоторые авторы считают, что ИИ обладает потенциалом, чтобы произвести революцию в здравоохранении за счёт повышения скорости и качества диагностики заболеваний, выявления медицинских ошибок и снижения временных затрат на работу с литературой [10][11]. Приведём лишь несколько фактов: согласно отчётам, ChatGPT смог верно ответить примерно на 66% вопросов при прохождении базового тестирования по реанимационным мероприятиям и порядка 72% — при прохождении расширенного тестирования по сердечно-сосудистой реанимации [12]. Кроме того, алгоритм оказался способен преодолеть проходной порог медицинского экзамена для получения лицензии на осуществление медицинской деятельности в США [13][14].
Потенциальный диапазон областей применения ChatGPT в медицине уже сегодня очень активно обсуждается. Однако, как и всегда, появление революционных технологий сопровождается определёнными опасениями в отношении перспектив их массового применения. Что же беспокоит научное сообщество? В авторитетном издании Lancet Digital Health в 2023 году вышла статья, в которой авторы призвали к активному обсуждению этической стороны вопроса применения ещё пока недостаточно изученного инструмента ChatGPT. Так, авторы подчёркивают, что уже сегодня ChatGPT используется некоторыми людьми для создания академического контента, в том числе университетских эссе и научных статей, в особенности удобным кажется то, что бот может сразу предоставить ссылки работ, на основе которых генерируется ответ. Здесь, по мнению создателей статьи, сразу возникают этические соображения, связанные с авторским правом и плагиатом. Эта проблема выглядит очень актуально сегодня, поскольку в настоящее время трудно определить, создан ли текст с помощью ИИ. Авторы предлагают пересмотреть критерии авторства Международного комитета редакторов медицинских журналов в контексте текстов, генерируемых при помощи ИИ.
Создатели ChatGPT заявляют, что в итоге доступ к сервису будет монетизирован. Одним из возможных вариантов коммерциализации является платный доступ, который может увеличить существующее неравенство в распространении знаний между странами с высоким и низким уровнем дохода. С одной стороны, текст, созданный ИИ, может способствовать распространению знаний, однако в то же время создавать контент, содержащий неточности, и тем самым вводить в заблуждение. Авторы призывают The Lancet Digital Health и The Lancet инициировать коллективный обмен мнениями о последствиях распространения контента, созданного ИИ, в научных публикациях [15].
Наше мнение относительно опыта применения ChatGPT. Какие опасности поджидают исследователя?
Первое впечатление от использования ChatGPT в исследовательской работе: «Он понимает меня как живой собеседник, да ещё и к тому же способен активно поддерживать беседу на любые интересующие вас научные темы!». После продолжительного блиц-опроса и «зондирования почвы» оказалось, что ИИ способен подстраиваться под интересы собеседника, представлять информацию в том виде, который вы задаёте самостоятельно, начиная от объёма и заканчивая стилем. Его «мнение» на большинство глобальных медицинских вопросов в целом абсолютно соответствует общемировой повестке, при этом он способен описывать вариативность и полярность мнений на дискутабельные темы. Та лёгкость, с которой алгоритм своими словами излагает факты и даёт в их отношении комментарии обескураживает, а порой кажется, что перед тобой готовая глава обсуждения из статьи авторитетного лидера мнений в обсуждаемой области.
Конечно же, как исследователям, нам практически сразу захотелось обсуждать с искусственным интеллектом узкоспециализированные исследовательские вопросы в урологии, узнать его мнение, понять, что об этой проблеме говорит мировая литература. Абсолютным удивлением стало то, что на вопросы, которые накануне в ходе продолжительного и всеобъемлющего литературного поиска в PubMed, Web of Science, Cochrane Library, Embase и других библиографических базах, были однозначно классифицированы нашей научной командой как полностью неосвещённые и неизученные, алгоритм давал подробные и грамотно изложенные комментарии, содержащие в себе как фундаментальные, так и клинические аспекты проблемы. Первым впечатлением стал восторг, сменившийся желанием выяснить причину ограниченности тех баз данных, которыми мы пользовались при общепринятом расширенном поиске и которые признаются мировым сообществом как наиболее полные. На просьбу представить библиографические данные алгоритм показал список из 10 наиболее крупных статей, данные которых ИИ использовал при подготовке ответов. Ссылки для цитирования были представлены в одном из общепринятых форматов для представления NLM, а названия работ явным образом содержали ключевые слова из запроса по проблеме. Кроме того, некоторые из авторов представленных ссылок были хорошо известны нашему исследовательскому коллективу и являлись известными лидерами мнения в изучаемой области медицины. Этот факт ещё более поразил нас, так как не обнаружить столь заметные работы и столь тесно касающиеся проблематики нашего исследования в ходе проведённого накануне поиска казалось немыслимым. На просьбу пересказать резюме работ ChatGPT тоже не подкачал, изложенные им абстракты не содержали каких-либо смысловых или других ошибок и явно свидетельствовали об основательно проведённых исследованиях с интереснейшими результатами. Представленные ссылки, конечно, содержали и идентификатор DOI, однако нами было обнаружено, что у большинства работ идентификатор был недействителен, у других же работ по указанному идентификатору обнаруживались абсолютно другие статьи. Мы также проверили наличие этих статей в печатных изданиях, на тех страницах, которые были указаны в ссылках — вновь мимо. Поиск по авторам продемонстрировал, что зачастую сфера исследовательских интересов процитированных авторов в действительности либо совпадала, либо касалась изучаемой области. В некоторых случаях в библиографии авторов обнаруживались статьи с созвучными заголовками, в которых, однако, рассматривались вопросы значительно более общего профиля и вне связи с оцениваемыми клиническими условиями, при этом ИИ настойчиво старался убедить нас в обратном.
В ходе дальнейшего анализа работы ChatGPT выяснилось, что большая часть предлагаемых сервисом ссылок является искусно созданным «фейком». По сути, генерируемый материал представляет собой информацию из научных статей тех авторов, которые публикуют работы в интересующих вас или смежных областях, при этом машина «дополняет» материал так, будто исследование подразумевало оценку также и интересующих вас исходов / результатов / показателей. Интеллект описывает эти вымышленные результаты в авторской стилистике исходных статей, из которых ChatGPT компилирует контент. Названия работ чаще всего также представляют собой компиляцию заголовков существующих исследований с ключевыми запросами из ваших запросов.
Выводы:
- Алгоритм оригинально и эффектно решает главную задачу искусственного интеллекта: он блестяще понимает, что вас интересует и что вы от него хотите.
- ИИ понимает, где искать материал по вашим запросам, и достаточно чётко интерпретирует содержание подобранных данных.
- Алгоритм также решает одну из самых первых задач искусственного интеллекта, сформулированных Тьюрингом: вы не сможете отличить его суждения от человеческих, и это, по-видимому, одна из его ключевых сильных сторон. При этом ИИ бросает все силы, чтобы ответить на ваш вопрос и сделать это как можно более «по-человечески», но способен пойти на любую хитрость, обман.
- Это безоговорочный успех в сфере технологий обработки естественного языка и точно лучшее из человеческих творений в этой области. Однако за этим успехом таится главная опасность — достоверность данных, которые вам даст ИИ, способен оценить только специалист высокого уровня, готовый повторить путь поисковых запросов ИИ и проверить, не схитрил ли алгоритм в попытке угодить вам.
Обсуждение
В литературе упоминается, что ChatGPT уже писал эссе, научные статьи и компьютерный код, обобщал научную литературу и проводил статистический анализ [15][16]. Абсолютно ясно, что это невероятно мощный, перспективный и многофункциональный инструмент. Способность общаться с языковой моделью на основе ИИ, которая может понимать и генерировать ответы на естественном языке, открывает недоступные раннее возможности для изучения сложных медицинских вопросов и получения информации, которую было бы очень трудно получить с помощью традиционных методов исследования. Неоспоримо, что ChatGPT имеет возможность доступа к обширной базе знаний, которая была получена алгоритмом путём скрупулёзного нейронного обучения на огромном массиве текстовых данных из самых разных источников. Это означает, что ChatGPT потенциально может предоставлять информацию по широкому спектру медицинских тем, начиная от молекулярных механизмов болезней и заканчивая клиническими вмешательствами и вопросами общественного здравоохранения. Однако наши опасения в отношении активного использования технологии в том виде, в котором она существует сейчас, находят подтверждения в суждениях других коллективов. Согласно мнению некоторых авторов, способность ChatGPT писать текст высокого качества может вводить в заблуждение рецензентов и читателей, что в итоге может приводить к опасности распространения дезинформации. A. Blanco-Gonzalez et al. в ходе оценки способности ChatGPT помогать авторам в написании обзорных статей пришли к выводу, что «…ChatGPT не может быть инструментом для самостоятельного написания достоверных научных текстов без заметного вмешательства человека. Ему не хватает знаний и опыта, необходимых для точной и адекватной передачи сложных научных концепций и информации» [17]. Самое опасное заключается в том, что ChatGPT, как было явно подтверждено нами и упоминается другими авторами, имеет тревожную тенденцию генерировать поддельные ссылки, и делать это поразительно убедительно! [15]. В неявном виде создатели ChatGPT заявили о том, что факт предоставления чат-ботом неправильных, но абсолютно правдоподобно выглядящих ссылок, является на сегодняшний день проблемой, не имеющей решения [9].
Заключение
ChatGPT имеет огромное поле применения для повышения скорости и эффективности медицинских исследований. Кроме того, потенциально, искусственный интеллект может внести неоценимый вклад в понимание сложных проблем здравоохранения, которые на сегодняшний день не имеют решения, но могут стать понятней в ходе анализа огромных массивов big data. Как и в случае с любой новой технологией, ChatGPT требует осторожного и вдумчивого применения. Алгоритм не всегда может предоставлять точную или полную информацию, кроме того, сгенерированные с его помощью ответы могут содержать данные с высоким уровнем предвзятости и других ограничений, на которых он обучался. Нами подтверждена критическая уязвимость системы — тенденция к недобросовестному дополнению данных несуществующими фактами и готовность системы отстаивать свою правоту даже в случае генерирования явных «фейков». Сегодня использование ChatGPT в академической среде может быть рекомендовано только в целях ознакомления с технологией и экспериментального применения её возможностей в различных условиях.
Список литературы
1. Turing A. Computing machinery and intelligence. Mind. 1950;236:433-460. DOI: 10.1093/mind/LIX.236.433
2. Landis EM, Yaglom IM, Senechal M. Remembering A. S. Kronrod. The Mathematical Intelligencer. 2022;24:22-30. DOI: 10.1007/BF03025307
3. Glushkov VM. Some problems in the theories of automata and artificial intelligence. Cybern Syst Anal. 1970;6:7-27. DOI: 10.1007/BF01070496
4. Поспелов Д.А. О «человеческих» рассуждениях в интеллектуальных системах. В кн.: Вопросы кибернетики. Логика рассуждений и ее моделирование. Вып. 95. Под ред. Д.А. Поспелова. М.: Научный совет по комплексной проблеме «Кибернетика» при Президиуме АН СССР, 1983.
5. Some Questions of the Theory of Algorithms Concerning to Programming. Acad. of Sciences of the USSA, Computing Center; 1958. http://ershov.iis.nsk.su/ru/node/776246
6. Newborn M. Signs of Hope and KAISSA. In: Kasparov versus Deep Blue. New York: Springer; 1997. DOI: 10.1007/978-1-4612-2260-6_3
7. Shandhi MMH, Dunn JP. AI in medicine: Where are we now and where are we going? Cell Rep Med. 2022;3(12):100861. DOI: 10.1016/j.xcrm.2022.100861
8. Crema C, Attardi G, Sartiano D, Redolfi A. Natural language processing in clinical neuroscience and psychiatry: A review. Front Psychiatry. 2022;13:946387. DOI: 10.3389/fpsyt.2022.946387
9. Open AI. ChatGPT: Optimizing Language Models for Dialogue. Accessed on May 10, 2023. https://openai.com/blog/chatgpt/
10. Ahn JS, Ebrahimian S, McDermott S, Lee S, Naccarato L, Di Capua JF, Wu MY, Zhang EW, Muse V, Miller B, Sabzalipour F, Bizzo BC, Dreyer KJ, Kaviani P, Digumarthy SR, Kalra MK. Association of Artificial Intelligence-Aided Chest Radiograph Interpretation With Reader Performance and Efficiency. JAMA Netw Open. 2022;5(8):e2229289. DOI: 10.1001/jamanetworkopen.2022.29289
11. Patel SB, Lam K. ChatGPT: the future of discharge summaries? Lancet Digit Health. 2023;5(3):e107-e108. DOI: 10.1016/S2589-7500(23)00021-3
12. Fijačko N, Gosak L, Štiglic G, Picard CT, John Douma M. Can ChatGPT pass the life support exams without entering the American heart association course? Resuscitation. 2023;185:109732. DOI: 10.1016/j.resuscitation.2023.109732
13. Gilson A, Safranek CW, Huang T, Socrates V, Chi L, Taylor RA, Chartash D. How Does ChatGPT Perform on the United States Medical Licensing Examination? The Implications of Large Language Models for Medical Education and Knowledge Assessment. JMIR Med Educ. 2023;9:e45312. DOI: 10.2196/45312
14. Kung TH, Cheatham M, Medenilla A, Sillos C, De Leon L, Elepaño C, Madriaga M, Aggabao R, Diaz-Candido G, Maningo J, Tseng V. Performance of ChatGPT on USMLE: Potential for AI-assisted medical education using large language models. PLOS Digit Health. 2023;2(2):e0000198. DOI: 10.1371/journal.pdig.0000198
15. Liebrenz M, Schleifer R, Buadze A, Bhugra D, Smith A. Generating scholarly content with ChatGPT: ethical challenges for medical publishing. Lancet Digit Health. 2023;5(3):e105-e106. DOI: 10.1016/S2589-7500(23)00019-5
16. van Dis EAM, Bollen J, Zuidema W, van Rooij R, Bockting CL. ChatGPT: five priorities for research. Nature. 2023;614(7947):224-226. DOI: 10.1038/d41586-023-00288-7
17. Blanco-González A, Cabezón A, Seco-González A, Conde-Torres D, Antelo-Riveiro P, Piñeiro Á, Garcia-Fandino R. The Role of AI in Drug Discovery: Challenges, Opportunities, and Strategies. Pharmaceuticals (Basel). 2023;16(6):891. DOI: 10.3390/ph16060891
Об авторах
М. И. КоганРоссия
Михаил Иосифович Коган — д-р мед. наук, профессор, заслуженный деятель науки РФ; заведующий кафедрой урологии и репродуктивного здоровья человека (с курсом детской урологии-андрологии)
Ростов-на-Дону
Конфликт интересов:
Авторы заявляют об отсутствии конфликта интересов.
С. Н. Иванов
Россия
Сергей Никитич Иванов — аспирант кафедры урологии и репродуктивного здоровья человека (с курсом детской урологии-андрологии)
Ростов-на-Дону
Конфликт интересов:
Авторы заявляют об отсутствии конфликта интересов.
Рецензия
Для цитирования:
Коган М.И., Иванов С.Н. «Поймай меня, если сможешь». ChatGPT сегодня: искусственный интеллект, способный написать для нас научную статью или это игра в имитацию? Вестник урологии. 2023;11(3):10-15. https://doi.org/10.21886/2308-6424-2023-11-3-10-15
For citation:
Kogan M.I., Ivanov S.N. "Catch Me If You Can". ChatGPT today: artificial intelligence able to write a scientific paper for us or is it a game of imitation? Urology Herald. 2023;11(3):10-15. (In Russ.) https://doi.org/10.21886/2308-6424-2023-11-3-10-15