В СПбГУ обсудили перспективы использования нейросетей в научных исследованиях
В Санкт-Петербургском университете прошла серия научно-практических семинаров, посвященных применению искусственного интеллекта в научных исследованиях. В качестве примера специалисты СПбГУ выбрали появившийся совсем недавно, но уже ставший популярным сервис ChatGPT.
Сегодня все острее встает вопрос о применении подобных сервисов и об установлении границ между интеллектуальным трудом человека и действиями искусственного интеллекта. Философы Санкт-Петербургского университета посвятили изучению этих проблем серию семинаров, участие в которых приняли специалисты и обучающиеся СПбГУ.
Путин поручил продлить программу мегагрантов для ученых
Как отметил заведующий кафедрой этики СПбГУ Вадим Перов, на данный момент в мировом сообществе нет четкого понимания, кто должен нести ответственность за результаты деятельности искусственного интеллекта, однако большинство экспертов сходится во мнении, что ответственность не ложится на саму программу.
Но если не искусственный интеллект, то кто именно? Создатели, собственники, пользователи? В реальности оказывается, что это трудно определить. Кто является создателем — программисты, IT-компания или кто-то другой? Кто выступает в качестве пользователя — получатель продукта, созданного нейросетью?
Заведующий кафедрой этики СПбГУ Вадим Перов
Ответов на эти вопросы пока нет, однако, как отмечают эксперты Университета, прийти к какому-то решению придется, поскольку проблемы регулирования работы искусственного интеллекта тревожат не только философов, но и юристов. Так, необходимость разработки подходов к правовому регулированию работы нейросетей обсуждали юристы СПбГУ на международном форуме «ТИБО-2023».
По мнению Вадима Перова, контролировать работу искусственного интеллекта необходимо, в том числе и потому, что человек пока не нашел способа научить программу различать добро и зло. ИИ занимается алгоритмической обработкой всей информации, к которой получает доступ. Однако в этих массивах данных содержится и негативный опыт человечества, например истории, связанные с жестоким обращением, насилием или другими аспектами. Человек, обладающий навыком критического мышления и определенными, сформировавшимися во время жизни представлениями о правильном и неправильном, способен дать собственную оценку таким материалам, в то время как искусственный интеллект «воспринимает все как есть».
Создание так называемых искусственных «моральных агентов», своего рода критериев, позволяющих произвести такое разделение на уровне искусственного интеллекта, по мнению Вадима Перова, пока не более чем гипотеза, скорее фантастическая, чем научная. Как отметил ученый, даже если некие «этически правильные алгоритмы» однажды все-таки будут созданы, возникнет еще более сложный вопрос: чьи нормы и ценности будет поддерживать система искусственного интеллекта.
Отдельное внимание философы Университета уделили вопросу соблюдения академической этики при использовании нейросетей в научной работе. По мнению эксперта, использование в научных исследованиях разнообразных сервисов не стоит считать неэтичным, однако информация об их использовании должна быть сразу известна.
Этически правильным будет не просто указать в работе на использование каких-то алгоритмов систем искусственного интеллекта, а описать процедуры этого использования, чтобы стороннему человеку был виден вклад самих ученых.
Заведующий кафедрой этики СПбГУ Вадим Перов
«В каких-то случаях этим вкладом может быть разработка дизайна исследования и его проведение с помощью искусственного интеллекта, а где-то вклад будет значительно больше. Честное объяснение позволит четко видеть, что именно сделал ученый в своей работе, а также насколько грамотно он использовал современные технологии для улучшения собственного исследования», — отметил заведующий кафедрой этики СПбГУ Вадим Перов.
Ученый уверен, что постепенно в научном сообществе будут разработаны этические правила для подобных публикаций, однако некоторые все же смогут воспользоваться отсутствием таких рамок, что приведет к росту числа фальсифицированных исследований. Это, в свою очередь, потребует изменения процедур рецензирования.
В рамках семинаров участники смогли проверить работу чат-бота на практике. Под руководством куратора проекта «Цифровые технологии в философии», выпускника СПбГУ Дмитрия Ярочкина они попытались с помощью ChatGPT написать курсовую работу по философии, посвященную вопросам свободы воли. Качество сгенерированного программой текста оценивал заведующий кафедрой философской антропологии СПбГУ Игорь Ларионов.
Участники семинара пришли к выводу, что получить приемлемый результат при первом использовании сервиса практически невозможно, необходим опыт работы с чат-ботом и умение четко формулировать запрос.
Большинство людей буквально каждый день пользуются различными поисковыми системами, так что может показаться, что этим навыком обладают многие, однако при работе с платформой его зачастую оказывается недостаточно. В таком случае нейросеть может дать слишком размытый ответ или написать длинный текст, в котором в разных формулировках будет повторяться одна и та же мысль. Кроме того, программа нередко допускает ошибки — как фактические, так и грамматические (чат-бот лучше обучен работать с английским языком, чем с русским).
Кроме того, важно понимать, что тексты, полностью созданные ChatGPT, не имеют научной ценности. Нейросеть не способна генерировать новое, она лишь использует информацию, уже опубликованную где-либо, а значит известную. Однако, как отмечают философы Санкт-Петербургского университета, подобные сервисы могут стать полезным инструментом, в том числе при написании научной статьи. Так, программа способна подсказать возможную структуру будущей работы или проанализировать уже имеющийся текст, выделив в нем главные мысли, что облегчит процесс написания заключения или аннотации. Искусственный интеллект также способен переписать документ в другом стиле: более легком или, наоборот, академическом.
В будущем философы СПбГУ планируют разработать методические рекомендации по использованию ChatGPT в научных исследованиях и других областях, которым не помешает автоматизировать рутинные процессы. Серия семинаров организована в рамках проекта РНФ № 22-28-00379 «Трансформации морального агентства: этико-философский анализ».