Версия для слабовидящих
Научный журнал Байкальского государственного университета
Всероссийский криминологический журнал / Russian journal of criminology
ISSN 2500-1442 (Online)
Издается с 2007 года
Menu

Информация о статье

Название статьи:

О возможности доктринального восприятия системой общего права искусственного интеллекта как субъекта преступления: на примере уголовного законодательства США

Авторы:
Шестак В.А., профессор кафедры уголовного права, уголовного процесса и криминалистики Московского государственного института международных отношений (университета) Министерства иностранных дел Российской Федерации, доктор юридических наук, доцент, Московский государственный институт международных отношений (университет) Министерства иностранных дел Российской Федерации, г. Москва, Российская Федерация, shestak.v.a@mgimo.ru,

Волеводз А.Г., заведующий кафедрой уголовного права, уголовного процесса и криминалистики Московского государственного института международных отношений (университета) Министерства иностранных дел Российской Федерации, доктор юридических наук, доцент, Московский государственный институт международных отношений (университет) Министерства иностранных дел Российской Федерации, г. Москва, Российская Федерация, a.volevodz@inno.mgimo.ru,

Ализаде В.А., преподаватель кафедры теории права и сравнительного правоведения, Московский государственный институт международных отношений (университет) Министерства иностранных дел Российской Федерации, г. Москва, Российская Федерация, v.alizade@inno.mgimo.ru
В рубрике:
МАТЕМАТИЧЕСКИЕ МЕТОДЫ И ЦИФРОВЫЕ ТЕХНОЛОГИИ В СОВРЕМЕННОЙ КРИМИНОЛОГИИ
Год: 2019 Том: 13 Номер журнала: 4
Страницы: 547-554
Тип статьи: Научная статья
УДК: 341.01; 343.2/.7
DOI: 10.17150/2500-4255.2019.13(4).547-554
Аннотация:
Раскрывая вопрос о возможности привлечения искусственного интеллекта к уголовной ответственности с позиций действующего уголовного закона в США, авторы исследуют мнения западных юристов, полагающих, что такая ответственность для машины, управляемой искусственным интеллектом, может иметь место в обозримом будущем. Анализу подвергнуты установленные американским законодателем условия наступления уголовной ответственности: наличие волевого противоправного деяния в форме действия или бездействия (actus reus), намерения (mens rea), т.е. лицо знает о наличии преступного умысла в своих действиях либо действует неосторожно, а также три основные модели уголовной ответственности искусственного интеллекта. Первая - это совершение преступления через деяния иного существа, т.е. случаи, когда субъект совершения преступления не обладает достаточными возможностями мышления, чтобы понимать значение злого умысла или тем более руководствоваться им при совершении действий. К таковым относят малолетних, ограниченно дееспособных и кибернетические системы современного уровня, применительно к которым рано говорить об их способности к мышлению, идентичному человеческому. Последние считаются невиновными в совершении деяния, поскольку последовательность их действий все равно контролируется заданной программой или лицом, осуществляющим опосредованное программное управление. Вторая модель - когда преступление совершается субъектом, объективно виновным в его совершении. В интеллектуальных системах часть программного кода изначально предусматривает некоторую противоправность действий, что может заключаться, к примеру, в заданной команде на безоговорочное уничтожение всех объектов, признаваемых системой опасными для той цели, на достижение которой направлена деятельность подобного искусственного интеллекта. В соответствии с данной моделью требуется привлечение к ответственности лица, отдавшего неправомерную команду. При условии отсутствия элемента сокрытия такого «соисполнителя» уголовной ответственности должно подлежать лицо, отдавшее системе неправомерный приказ, а не исполнитель данного приказа, поскольку сама алгоритмическая система, согласно которой действует исполнитель, является противоправной. Таким образом, ответственности в этом случае подлежат лица, написавшие или использовавшие программу, при условии, что они были осведомлены о противоправности системы приказов, которыми руководствовался исполнитель. К таковым преступлениям следует относить деяния, которые преступны по своей природе, но которые не могут быть предотвращены исполнителем - системой искусственного интеллекта. Третья модель предполагает непосредственную ответственность искусственного интеллекта за деяния, содержащие одновременно как виновное волевое действие, так и противоправное намерение со стороны техники. Такая ответственность возможна в том случае, если искусственный интеллект признается субъектом уголовного права, а также если он на основе самостоятельно выработанного алгоритма совершает деяние, влекущее за собой общественно опасные последствия, либо если таковые наступают в результате невыполнения системой действий, предусмотренных изначальным алгоритмом, т.е. если его действие приобретает волевой виновный характер.
Ключевые слова: уголовная ответственность, правосубъектность, искусственный интеллект, робот, модели потенциального распределения уголовной ответственности при использовании интеллекта как инструмента преступного деяния, уголовно-правовое регулирование деятельности автономных систем управления, субъект уголовного права, actus reus, mens rea, деяние, виновное состояние ума, намерение, англо-американская правовая семья, система общего права
Список цитируемой литературы:
  • Robinson P.H. Reforming the Federal Criminal Code and the Model Penal Code: A Top Ten List / P.H. Robinson // Buffalo Criminal Law Review. - 1997. - Vol. 1, № 1. - P. 225-271.
  • Robinson P.H. Mens Rea / P.H. Robinson // Faculty Scholarship. - 2002. - Paper 34. - URL: https://scholarship.law.upenn.edu/faculty_scholarship/34.
  • Hallevy G. The Criminal Liability of Artificial Intelligence Entities - from Science Fiction to Legal Social Control / G. Hallevy // Akron Intellectual Property Journal. - 2010. - Vol. 4, iss. 2. - P. 171-201.
  • Gunkel D.J. The machine question: Critical Perspectives on AI, Robots, and Ethics / D.J. Gunkel. - Cambridge : MIT Press, 2012. - 270 p.
  • Scherer M.U. Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies / M.U. Scherer // Harvard Journal of Law & Technology. - 2015. - Vol. 29, № 2. - P. 353-400.
  • Mehlman M. Robot Law / M. Mehlman, J.W. Berg, S. Ray // Case Legal Studies Research Paper. - 2017. - URL: https://ssrn.com/abstract=2908488.
  • Debessonet C.G. An Artificial Intelligence Application in the Law: CCLIPS, A Computer Program that Processes Legal Information / C.G. Debessonet, G.R. Cross // High Technology Law Journal. - 1986. - Vol. 1, iss. 2. - P. 329-409.
  • Weng Y.H. Towards the Human-Robot Co-Existence Society: On Safety Intelligence for Next Generation Robots / Y.H. Weng, C.H. Chen, C.T. Sun // International Journal of Social Robotics. - 2009. - № 1. - P. 267-282.
  • Solaiman S. Legal personality of robots, corporations, idols and chimpanzees: a quest for legitimacy / S. Solaiman // Artificial Intelligence and Law. - 2017. - Vol. 25, № 2. - P. 155-179.
  • Freitas P. Criminal Liability of Autonomous Agents: From the Unthinkable to the Plausible / P. Freitas, F.A. de Andrade, P.J. Novais // Ai Approaches to the Complexity of Legal Systems. - Berlin : Springer, 2014. - P. 145-156.
  • Hallevy G. When robots kill: artificial intelligence under criminal law / G. Hallevy. - UPNE (Northeastern University Press), 2013. - 264 p.
  • Levy D. When robots do wrong / D. Levy. - URL: https://share. pdfonline.com/87cad18d73324e8fb2eaae1cddb60f77/Kathmandu_final_text_October31st.htm.
  • Hallevy G. Liability for Crimes Involving Artificial Intelligence Systems / G. Hallevy. - Dordrecht : Springer, 2015. - 262 p.
  • Philosophical View of Multiculturalism in Modern European Cinematography / Y.V. Nikolaeva [et al.] // European Journal of Science and Theology. - 2018. - № 14 (6). - P. 205-214.
  • Utemov V.V. Full Packaged Learning Solutions for Studying Mathematics at School / V.V. Utemov [et al.]. - DOI: https://doi.org/10.29333/ejmste/95122 // Eurasia Journal of Mathematics, Science and Technology Education. - 2018. - № 14 (12). - em1619.
  • Gruner R.S. Corporate Criminal Liability and Prevention / R.S. Gruner. - New York : Law Journal Press, 2008. - 600 p.
  • Malle B.F. Networks of Social and Moral Norms in Human and Robot Agents / B.F. Malle, M. Scheutz, J.L. Austerweil. - DOI: 10.1007/978-3-319-46667-5_1 // A World with Robots : International Conference on Robot Ethics. - Lisbon, 2015. - P. 3-17.
  • Decker M. Robo- and Information Ethics. Some fundamentals / ed. M. Decker, M. Gutmann. - Berlin : Law, Innovation and Technology, 2012. - 264 S.
  • Brenner S.W. The Trojan Horse Defense in Cybercrime Cases / S.W. Brenner, B. Carrier, J. Henninger // Santa Clara High Technology Law Journal. - 2004. - Vol. 21, iss. 1. - URL: http://digitalcommons.law.scu.edu/chtlj.
  • Energy saving projects as energy security factors / G.M. Kvon [et al.]. - DOI: https://doi.org/10.32479/ijeep.7143 // International Journal of Energy Economics and Policy. - 2018. - Vol. 8, iss. 6. - P. 155-160.
  • Solum L.B. Legal Personhood for Artificial Intelligences / L.B. Solum // North Carolina Law Review. - 1992. - Vol. 70, № 4. - P. 1231-1287.
  • Hibbard B. The Ethics and Politics of Super-Intelligent Machines / B. Hibbard. - URL: http//www.ssec.wisc.edu/~billh/g/SI_ethics_politics.doc.