«Mашина бога» Дж.Cавулеску как моральный агент и проблема ответственности
- Авторы: Ларионов И.Ю.1, Перова Н.В.1
- 
							Учреждения: 
							- Санкт-Петербургский государственный университет
 
- Выпуск: Том 34, № 3 (2023)
- Страницы: 24-40
- Раздел: Философия человека
- URL: https://cardiosomatics.ru/0236-2007/article/view/670691
- DOI: https://doi.org/10.31857/S023620070026101-8
- ID: 670691
Цитировать
Полный текст
 Открытый доступ
		                                Открытый доступ Доступ предоставлен
						Доступ предоставлен Доступ платный или только для подписчиков
		                                							Доступ платный или только для подписчиков
		                                					Аннотация
Данная статья посвящена проблематике моральной ответственности в связи с технологиями искусственного интеллекта. В последние годы искусственный интеллект активно развивается в сторону все большей автономности, что делает крайне актуальной философскую аналитику искусственной моральной агентности (moral agency). Актуальность работы также определяется все большим распространением искусственного интеллекта в профессиональных сферах, в том числе связанных с принятием ответственных управленческих, финансовых и т.п. решений. Основным объектом исследования в статье выступает умозрительный эксперимент — проект так называемой «Машины Бога» западного философа Дж. савулеску, который позволяет обратиться к такому важному аспекту, как возможность влияния искусственного интеллекта на развитие нравственного сознания человека, поскольку современные технологии, наряду с проектами биологического нравственного улучшения человека претендуют на способность создания искусственных моральных агентов. Авторы дают всесторонний анализ этого проекта, соотнося его с другими концепциями современной аналитической философии сознания, в том числе Г. Франкфурта. Теоретический фокус исследования направлен на концепты ответственности и свободы как ключевые в формулировке критериев морального агентства. При этом в статье рассмотрены особенности реализации критериев моральной агентности в отношении искусственного интеллекта. В статье оценивается состоятельность проекта Дж. Савулеску, в частности: насколько искусственный интеллект наподобие Машины Бога может рассматриваться как моральный агент, сможет ли человек при помощи такого искусственного посредника обрести характеристики нравственной, ответственной и свободной личности, и насколько такие проекты способствуют нравственному совершенствованию человечества. Указываются риски патерналистского вмешательства в развитие морали. Отдельно рассматривается феномен моральных дилемм в связи с проблематикой встраивания искусственного интеллекта в жизнь современного общества, а также логические аспекты принятия решения в условии моральных конфликтов. Формулируется вывод о ключевом значении категории ответственности для моделирования взаимоотношений человека и искусственного интеллекта в машинной этике.
			                Об авторах
Игорь Юрьевич Ларионов
Санкт-Петербургский государственный университетРоссийская Федерация, 199034 Санкт-Петербург, Менделеевская линия, д. 5
Нина Вадимовна Перова
Санкт-Петербургский государственный университетРоссийская Федерация, 199034 Санкт-Петербург, Менделеевская линия, д. 5
Список литературы
- Альчуррон К.Э., Герденфорс П., Макинсон Д. Логика теории изменения: функции ревизии и сокращения через частичное пересечение // «Нормативные системы» и другие работы по философии права и логике норм. СПб.: Издательский Дом СПбГУ, 2013. С. 318–343.
- Гарвардт М.А., Перова Н.В. Универсализм и релятивизм морального агента биологического нравственного улучшения (на примере политической деятельности) // Дискурсы этики. 2022, № 1(13). С.69–84.
- Ларионов И.Ю. Кто несет ответственность за применение оружия с искусственным интеллектом? // Интернет и современное общество: сборник тезисов докладов [Электронный ресурс]. Труды XXV Международной объединенной научной конференции «Интернет и современное общество» (IMS-2022), Санкт-Петербург, 23–24 июня 2022 г. СПб: Университет ИТМО, 2022. http://ojs.itmo.ru/index.php/IMS/issue/view/78,свободный.
- Ларионов И.Ю., Марков Б.В. Морально-антропологические риски технологий биологического совершенствования человека // Дискурсы этики. 2022. № 4(16). C. 25–46.
- Милль Дж. О свободе // Наука и жизнь. 1993. № 11. С.10–11.
- Разин А.В. Этика искусственного интеллекта // Философия и общество. 2019. № 1. С. 57–73.
- Сёрл Дж. Сознание, мозг и программы // Аналитическая философия: становление и развитие. М.: Дом интеллектуальной книги, Прогресс-Традиция, 1998.
- Философия ответственности / под ред. Е.Н. Лисанюк, В.Ю. Перова. СПб.: Наука, 2014.
- Франкфурт Г. Альтернативные возможности и моральная ответственность // Философия. Журнал Высшей школы экономики. 2017. Т. I, № 4. С.129–140.
- Allen C., Varner G., Zinser J. Prolegomena to any future artificial moral agent. Journal of Experimental & Theoretical Artificial Intelligence. 2000. Vol.12, N 3. P. 251–261.
- Anderson M., Anderson S.L. Machine Ethics: Creating an Ethical Intelligent Agent. AI Magazine. 2007. N 4(28). P.15–26.
- Awad E., Dsouza S., Kim R. et al. The Moral Machine Experiment. 2018. Nature. Vol. 563. P. 59–64.
- Dennett D. When HAL Kills, Who’s to Blame? Computer Ethics // Stork, David, HAL’s Legacy: 2001's Computer as Dream and Reality. MIT Press, 1998.
- Floridi L., Sanders J. Artificial Evil and the Foundation of Computer Ethics. Ethics and Information Technology. 2001. N 3(1). P. 56–66.
- Frankfurt H. Freedom of the Will and the Concept of a Person. The Journal of Philosophy. 1971. Vol. 68, N 1. P. 5–20.
- Harris J. Moral Enhancement and Freedom. Bioethics. 2011. Vol. 25. P.102–111.
- Himma K.E. Artificial Agency, Consciousness, and the Criteria for Moral Agency: What Properties must an Artificial Agent have to be a Moral Agent? Ethics and Information Technology. 2009. N. 11. P. 19–29.
- Lara F. Why a Virtual Assistant for Moral Enhancement When We Could have a Socrates? Science and Engineering Ethics. 2021, N 42. P. 27.
- Moral Dilemmas and Moral Theory / ed. Mason H.E. N.Y.: Oxford University Press, 1996.
- Nadeau J.E. Only Androids Can Be Ethical // Thinking about Android Epistemology / eds. Ford K. and Glymour C. MIT Press, 2006. P. 241–248.
- Savulescu J., Persson I. Moral Enhancement, Freedom and the God Machine. The Monist. 2012. N 95(3). P. 399–421.
- Sullins J.P. When Is a Robot a Moral Agent. International Review of Information Ethics. 2006. Vol.6 (12). P. 23–30.
- Thomson J.J. The Trolley Problem. The Yale Law Journal. 1985. Vol. 94, N 6. P.1395–1415.
- Turing A. Computing Machinery and Intelligence // Mind. 1950, LIX (236). P. 433–460.
Дополнительные файлы
 
				
			 
						 
						 
						 
					 
						 
									
 
  
  
  Отправить статью по E-mail
			Отправить статью по E-mail 


