Библиотека
|
ваш профиль |
Юридические исследования
Правильная ссылка на статью:
Волков В.Э.
Правовое признание технологий искусственного интеллекта в контексте конституционных ценностей российского государства
// Юридические исследования.
2023. № 3.
С. 51-61.
DOI: 10.25136/2409-7136.2023.3.40425 EDN: MVQFHJ URL: https://nbpublish.com/library_read_article.php?id=40425
Правовое признание технологий искусственного интеллекта в контексте конституционных ценностей российского государства
DOI: 10.25136/2409-7136.2023.3.40425EDN: MVQFHJДата направления статьи в редакцию: 06-04-2023Дата публикации: 13-04-2023Аннотация: Цель статьи – формирование подходов к публично-правовому регулированию технологий искусственного интеллекта. Предметом работы являются общественные отношения, сложившиеся в сфере правового оформления современных цифровых технологий «слабого» искусственного интеллекта - компьютерного зрения, обработки естественного языка, распознавания и синтеза речи, а также интеллектуальной поддержки принятия решений. Актуальность исследования определяется необходимостью приведения содержания правовых актов в соответствие с современным уровнем развития информационных технологий. Работа выполнена на основе сочетания общефилософских, общенаучных и специальных методов познания – конкретно-исторического анализа, формально-юридического (догматического) метода, а также метода сравнительного правоведения. Автор критикует антропоморфный подход к пониманию искусственного интеллекта, основанный на аналогии технологии с человеческим разумом, реализованный в терминологическом аппарате действующих правовых актов. Предлагается ограничение правовой интерпретации искусственного интеллекта набором конкретных информационных технологий, которые могут быть использованы человеком в решении прикладных задач. Проведен анализ возможных направлений конституционно-правового признания технологий искусственного интеллекта и юридических последствий их влияния на реализацию конституционных ценностей равноправия и неприкосновенности частной жизни. Предложена аргументация в пользу сочетания социального и технического регулирования отношений в сфере применения технологий искусственного интеллекта. Ключевые слова: искусственный интеллект, цифровые технологии, информационные технологии, публичное право, конституционные ценности, права человека, неприкосновенность частной жизни, равноправие, дискриминация, техническое регулированиеAbstract: The purpose of the article is to form approaches to the public legal regulation of artificial intelligence technologies. The subject of the work is the social relations that have developed in the field of legal registration of modern digital technologies of "weak" artificial intelligence - computer vision, natural language processing, speech recognition and synthesis, as well as intellectual decision support. The relevance of the research is determined by the need to bring the content of legal acts in line with the current level of information technology development. The work is based on a combination of general philosophical, general scientific and special methods of cognition – concrete historical analysis, formal legal (dogmatic) method, as well as the method of comparative jurisprudence. The author criticizes the anthropomorphic approach to understanding artificial intelligence, based on the analogy of technology with the human mind, implemented in the terminological apparatus of existing legal acts. It is proposed to limit the legal interpretation of artificial intelligence to a set of specific information technologies that can be used by a person in solving applied problems. The analysis of possible directions of constitutional and legal recognition of artificial intelligence technologies and the legal consequences of their influence on the implementation of the constitutional values of equality and privacy is carried out. The argumentation in favor of a combination of social and technical regulation of relations in the field of application of artificial intelligence technologies is proposed. Keywords: artificial intelligence, digital technology, information technology, public law, constitutional values, human rights, privacy, equality, discrimination, technical regulationРаботы, посвященные нормативному регулированию систем искусственного интеллекта, принято начинать с констатации определяющего значения цифровых технологий для научно-технического прогресса. Часто предсказывается возможность замены человеческого разума машинным, что может привести к трансформации права, его машинизации и избавлению от пороков человеческой природы. Однако подобные ожидания далеко не всегда подтверждаются специалистами в области точных и естественных наук [1]. Техническая литература определяет искусственный интеллект как набор информационных технологий, способных помочь человеку в решении конкретных прикладных задач, но не обладающих сверхспособностями в сравнении с людьми. В связи с этим при юридической характеристике технологий искусственного интеллекта необходимо исходить из того, что сам термин «интеллект» не имеет однозначного и общепризнанного определения. Подходы к его пониманию существенно различаются в зависимости от принадлежности интерпретатора к той или иной философской школе. Кроме того, современная физиология не дает исчерпывающего представления о принципах и механизмах высшей нервной деятельности человека как прообраза искусственного интеллекта. Поэтому определение искусственного интеллекта на основе аналогии с проявлениями разума в живой природе вряд ли может обосновано при современном уровне знаний [2]. Использование терминов «искусственный интеллект», «нейронная сеть», «машинное обучение» может означать разработку новых цифровых технологий, но не требует аналогий с интеллектом живых организмов. Антропоморфное понимание искусственного интеллекта присутствует не только в обыденном сознании, но и реализовано в терминологии правовых актов. Нормативное определение искусственного интеллекта в п. 1 ст. 2 Федерального закона от 24.04.2020 № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных» исходит из его способности имитировать когнитивные функции человека и предполагает сопоставление результатов его работы с результатами интеллектуальной деятельности человека. При описании технологии машинного обучения в Национальной стратегии развития искусственного интеллекта утверждается, что нейронные сети организованы по аналогии с человеческим мозгом (см. Указ Президента РФ от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации»). Хотя известно, что в прообразах животного мира масштаб и принципы деятельности мозга человека, связи и функции нейронов в нервной системе пока не выяснены [2]. Полагаем, что характеристика искусственного интеллекта на основе аналогии с человеческим разумом или живой природой в целом излишне оптимистична. Более продуктивным представляется взгляд на искусственный интеллект как на комплекс информационных технологий, позволяющих обрабатывать и анализировать данные с целью выполнения конкретных задач вне связи с проявлениями мыслительной деятельности человека. Дискуссионное понимание искусственного интеллекта в российской правовой доктрине также может быть связано с разночтениями при переводе английского термина «artificial intelligence». В отличие от традиционного русского перевода, в английском языке этот термин не обладает антропоморфным значением. Слово «intelligence» скорее означает «способность принимать правильные решения» или «разумное рассуждение», а не человеческий интеллект, для которого существует английский эквивалент «intellect» [3, c. 10]. Противоречивость терминологии, используемой в области искусственного интеллекта, признана в программных документах. Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники, утвержденная Распоряжением Правительства РФ от 19.08.2020 № 2129-р, учитывает отсутствие четкого понимания таких терминов, как «искусственный интеллект», «робот», «умный робот», «робототехника» и «интеллектуальный агент». Для устранения противоречий предлагается использовать разные определения в зависимости от отрасли применения технологий искусственного интеллекта, а также избегать внедрения единого определения указанных терминов в законодательство Российской Федерации. При необходимости использования определений в нормативных правовых актах предлагается использовать терминологию, предусмотренную техническими стандартами, либо давать определения, актуальные для данной сферы регулирования. Однако, вероятно, полностью воплотить предложенные идеи не удастся. В национальном стандарте РФ ПНСТ 553-2021 «Информационные технологии. Искусственный интеллект. Термины и определения» [4], принятом уже после утверждения Концепции, используется то же определение искусственного интеллекта, содержащее необоснованный антропоморфизм: комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. Это определение рекомендуется для использования в нормативных документах, правовой, технической и организационно-распорядительной документации, научной, учебной и справочной литературе. Дискуссионность определения искусственного интеллекта не позволяет создать прочную основу для его признания в качестве объекта правового регулирования. Более продуктивным может быть обсуждение регулирования конкретных уже существующих технических решений в области искусственного интеллекта, таких как компьютерное зрение, обработка естественного языка, распознавание и синтез речи, а также интеллектуальная поддержка принятия решений. Ограничение предмета правового регулирования перечисленными технологиями соответствует теоретической концепции разграничения сильного и слабого искусственного интеллекта. Современный уровень развития технологий искусственного интеллекта соответствует характеристике «слабого» искусственного интеллекта. Он способен решать только узкоспециализированные задачи. Возможность создания «сильного» искусственного интеллекта, способного взаимодействовать с окружающей средой на уровне человеческого сознания, в настоящее время не доказана. Поэтому попытки нормативного регулирования отношений по поводу искусственного интеллекта как такового в отрыве от его конкретно-исторических проявлений будут означать неоправданно расточительное использование нормативного ресурса права, а их доктринальное обоснование вряд ли выйдет за рамки научных дискуссий. При этом регулирование отношений, связанных с применением технологий «слабого» искусственного интеллекта, является весьма актуальной задачей. Системы, созданные на их основе, уже сегодня могут функционировать автономно без способности непосредственно воспринимать этические и правовые нормы, а также могут не учитывать их при принятии решений. Эта особенность автономных систем может иметь серьезный социальный эффект, затрагивающий в том числе конституционные основы российского государства и общества. Далее мы рассмотрим вопросы реализации технологии «слабого» искусственного интеллекта с учетом ценностей, которым в Российской Федерации придано конституционное значение. С развитием автоматизации государственной и общественной жизни все чаще выражаются идеи о включении нормативных положений об искусственном интеллекте в Конституцию России. Предлагаются конституционные поправки, связанные с расширением гарантий неприкосновенности частной жизни, «закреплением на конституционном уровне принципа открытости алгоритмов в целях прозрачности работы искусственного интеллекта» [5, c. 123-128]. Полагаем, что несмотря на важность этих вопросов, решать их путем изменения или дополнения конституционных норм не следует. Во-первых, большинство отношений, которые предлагается усовершенствовать путем изменения Конституции, связаны с определением правового статуса личности. Соответствующие правила находятся во второй главе Конституции и не могут быть изменены путем внесения поправок. Их модификация возможна только путем пересмотра всей Конституции, что вряд ли соразмерно задаче отражения особенностей весьма изменчивых информационных технологий. Во-вторых, предложения о внесении изменений в Конституцию, как правило, касаются не конкретных технологий искусственного интеллекта, а всего искусственного интеллекта в целом как социального явления. Однако на данном историческом этапе имеет смысл регулирование отдельных технологий искусственного интеллекта, а само по себе явление искусственного интеллекта слишком аморфно для конституционного оформления. Наконец, развитие технологий искусственного интеллекта не привело к созданию новых конституционных норм в странах, являющихся технологическими лидерами — США, КНР или государствах Европейского Союза. Оказывается, что отсутствие таких норм не является препятствием ни для реализации конституционного статуса личности, ни для развития новых технологий. Преждевременность конституционных поправок не исключает необходимости оценки влияния технологий искусственного интеллекта на конституционно-правовой статус личности. В данном контексте важно определить правильное направление научного поиска, поскольку благодатная тематика юридической футурологии предлагает множество, на первый взгляд, интересных тем, далеко не все из которых действительно могут быть сферой применения методологии правовой науки. Так, несмотря на бесплодность рассуждений о возможности определения правосубъектности современных систем искусственного интеллекта по аналогии со статусом человека, научная литература полна рассуждениями по поводу ответственности носителей искусственного интеллекта, их волевых актов и прочих проявлений, почти человеческого разума. Полагаем, что они не могут рассматриваться как факторы правовой реальности. И не только из-за относительной неразвитости технологий искусственного интеллекта. Утверждение правосубъектности искусственного интеллекта противоречит конституционной логике, в соответствии с которой человек, его права и свободы являются высшей ценностью. Если технологический прогресс приведет к появлению сильного искусственного интеллекта, это должно привести к полному пересмотру всего национального, а возможно и международного правопорядка, а в системе существующей конституции электронным лицам места нет. Следует также учитывать, что дебаты о том, должны ли системы искусственного интеллекта обладать правосубъектностью, в первую очередь проводятся в интересах крупных технологических компаний. Наделение систем искусственного интеллекта правами и обязанностями, главным образом, соответствует желанию их создателей избавиться от ответственности за действия автономных систем и переложить эту ответственность на пользователей или на самих носителей искусственного интеллекта. В случае признания таких систем субъектами права, их правовой статус будет иллюзорным, что скорее всего приведет к фактической безответственности их создателей. Поэтому признание правосубъектности систем искусственного интеллекта представляется весьма отдаленной перспективой, которая не обязательно будет благоприятной для человечества. Более плодотворным представляется интерес к оценке перспектив влияния технологий искусственного интеллекта на реализацию конституционного принципа равенства перед законом и судом. Хотя, на первый взгляд, машины обладают значительными преимуществами перед людьми в силу своей беспристрастности, в действительности, идеал их равного отношения к разным людям все еще труднодостижим. Более того, современное машинное обучение имеет особенности, которые могут привести к фиксации и усилению предвзятости в отношении определенных социальных групп, в особенности, меньшинств. Данные, используемые для обучения систем искусственного интеллекта, могут содержать социальные предрассудки, а также могут быть неполными или плохо организованными. Кроме того, существует вероятность намеренного создания моделей, которые используют потребительские предпочтения в целях недобросовестной конкуренции. Если наборы данных содержат предубеждения, то они будут воспроизводиться в результате машинного обучения и это с высокой вероятностью приведет к усилению социальной значимости этих предрассудков. Известны случаи, когда использование больших наборов данных приводило к автоматизированному принятию решений, которые усиливали неравенство возможностей людей в зависимости от их расы [6], пола [7] и социального статуса [8]. Например, современные системы распознавания лиц показывают значительно худшие результаты при распознавании лиц женщин с темным оттенком кожи, чем у мужчин со светлой кожей [6]. Поэтому важно обращать особое внимание на ситуации, в которых технологии искусственного интеллекта применяются для автономного принятия решений в отношении представителей уязвимых социальных групп, таких как дети и люди с ограниченными возможностями. Также угрожающие ситуации могут возникать в отношениях, где проявляется асимметрия в распределении власти или информации, например, в отношениях между работодателями и работниками, или между предпринимателями и потребителями. Таким образом использование машинного обучения подвергает опасности реализацию принципа равноправия и требует применения правовых мер, чтобы обеспечить его соблюдение в условиях широкого распространения не вполне совершенных технологий искусственного интеллекта. Согласно ч. 2 ст. 19 Конституции государство гарантирует равенство прав и свобод человека и гражданина. Перечень обстоятельств, независимо от которых гарантируется равноправие, открыт. Поэтому вряд ли есть смысл идти по пути уточнения конституционных формулировок, они уже предоставляют весь необходимый инструментарий для совершенствования гарантий равных прав и равных возможностей людей в новой технологической реальности. Скорее требуется дополнительное законодательное и подзаконное регулирование в сферах, наиболее подверженных влиянию технологий. Оно должно включать в себя как социальные нормы, так и технические решения, направленные на недопустимость использования технологий, приводящих к нарушению конституционного принципа равенства прав и возможностей их реализации. Технические решения могут быть достигнуты через устранение дискриминационных признаков на этапе сбора данных и в процессе обучения алгоритмов машинного обучения. Однако, даже при использовании лучших практик машинного обучения, дискриминация может сохраняться, если данные используемые для обучения, содержат предвзятые описания. Поэтому целесообразно расширение правовых возможностей общественного контроля в сферах, потенциально подверженных последствиям дискриминационного машинного обучения, а также применение правовых мер, направленные на обеспечение обратной связи граждан с разработчиками систем искусственного интеллекта. Алгоритмы должны быть разработаны таким образом, чтобы их процессы были прозрачными для общества и обеспечивали анализ целей систем, а также технических ограничений, присущих им. В качестве примера осторожного внедрения правовых норм в сферу аудита технологий машинного обучения можно привести закон о внесении изменений и дополнений в Административный кодекс города Нью-Йорк, вступивший в силу в 2021 году [9]. Он запрещает работодателям использовать автоматизированные инструменты отбора работников без их проверки на предвзятость. Закон требует, чтобы соискатели были уведомлены об использовании автоматизированных систем для оценки кандидатов при приеме на работу, а также при продвижении по службе. За нарушение требований закона предусмотрена административная ответственность. Распространенное использование технологий компьютерного зрения и машинного обучения также требует совершенствования гарантий конституционного права на неприкосновенность частной жизни. Аргументы в пользу повышения уровня защиты личности, окружают нас буквально повсюду в виде камер наблюдения, записывающих тысячи часов видеоматериалов, анализируемых в режиме реального времени. Без использования искусственного интеллекта эти записи были бы в значительной степени бесполезны, так как непосредственное изучение их человеком требовало бы непропорционально большого количества времени. Однако системы машинного обучения могут быть недорого обучены анализу больших объемов информации и распознаванию людей по изображению лица, моделям поведения сердцебиения, походке, MAC-адресам устройств и другим модальностям. Наиболее реальная угроза неприкосновенности частной жизни связана с возможностью использования алгоритмов машинного обучения для деанонимизации людей. При обработке больших объемов данных, содержащих чувствительную информацию, такую как медицинские или финансовые записи, обычно используются методы анонимизации для защиты конфиденциальности. Однако, с помощью алгоритмов машинного обучения возможно деанонимизировать данные и получить доступ к конфиденциальной информации. Например, с помощью методов машинного обучения можно связать медицинскую и финансовую информацию, полученную от разных источников, и на основе сопоставления данных определить характеристики личности конкретного человека без его согласия. Другой вид угроз, связанных с применением машинного обучения, проявляется в зависимости машинного обучения от наличия больших объемов обучающих данных. Для достижения высокой точности модели, необходимо обучить ее на максимально возможном количестве данных. Однако, концентрация данных в централизованных базах увеличивает риск утечки сведений о частной жизни граждан. Исследования показывают, что существует значительный риск крупных утечек из баз, создаваемых органами публичной власти, причем риск возрастает по мере роста объема данных, которые они хранят. Например, информация в система городского наблюдения Москвы доступна 16 тысячам пользователей, включая сотрудников правоохранительных органов, городских государственных и муниципальных органов, а также подведомственных им организаций. Неудивительно, что случаются утечки информации. В 2020 году активистка одной из правозащитных организаций Анна Кузнецова заказала в даркнете информацию об отслеживании своего лица с московских камер и ей удалось получить данные на себя всего за 16 тысяч рублей. Это только один из множества примеров, демонстрирующих недостаточную защищенность данных о частной жизни граждан, собранных в крупные базы. Помимо риска утечки данных, концентрация информации в централизованных базах также увеличивает вероятность злоупотребления ей. Полученные сведения можно использовать в целях массового наблюдения и контроля, что противоречит основным принципам демократии и правового государства. Кроме того, монопольное положение крупных технологических компаний в области машинного обучения также может создавать дополнительные проблемы, поскольку использование алгоритмов машинного обучения для анализа поведения пользователей технически возможно и без согласия последних. В целом использование машинного обучения в сфере защиты частной жизни требует глубокого и комплексного подхода, который должен сочетать в себе как социальное регулирование, так и технические меры защиты. Только таким образом можно обеспечить надежную защиту частной жизни граждан в условиях всеобщей цифровизации общества. Правовые гарантии конфиденциальности чувствительных для человека данных закреплены в статьях 23 и 24 Конституции Российской Федерации. Они закрепляют право на неприкосновенность частной жизни и предусматривают специальные нормы, способствующие его реализации, такие как тайна связи и запрет на сбор, хранение, использование и распространение информации о частной жизни лица без его согласия. Этих конституционных положений вполне достаточно для построения эффективной системы защиты частной жизни даже в условиях широкого распространения машинного обучения. Мы уже стали свидетелями распространения конституционной тайны связи на современные способы общения по электронной почте, в мессенджерах и социальных сетях. Нет оснований и для сомнений в эффективности норм конституции о недопустимости обработки информации о частной жизни лица без его согласия. При разумной реализации конституционных норм в законодательстве и стабильной судебной практике, существующего конституционного регулирования будет достаточно для эффективной защиты частной жизни граждан. При этом полезным было бы дополнение мер социального регулирования техническими нормами. В сложившихся обстоятельствах заслуживает внимания концепция «встроенной конфиденциальности» дополняющая социальное регулирование техническими нормами. Она наиболее разработана в практике Европейского Союза и заключается в применении технических и организационных мер, направленных на минимизацию собираемых персональных данных, псевдонимизацию и шифрование данных, удаление данных, утративших актуальность. Концепция встроенной конфиденциальности исходит из обоснованного предположения, что цифровая информация благодаря своим свойствам легко выходит из-под контроля тех, кто ее обрабатывает. Поэтому следует в принципе воздержаться от сбора чувствительной для людей информации там, где это возможно. Морально-этические нормы также играют важную роль в обеспечении защищенности частной жизни граждан в странах с развитой экономикой. Например, с начала 2021 года компания Facebook (признана в России экстремисткой организацией) прекратила использование системы распознавания лиц на своей платформе и обязалась удалить все связанные с ней данные пользователей. Это было сделано в ответ на растущие риски нарушения конфиденциальности персональных данных без соответствующих правовых гарантий. С 2018 года компании Microsoft, Amazon и IBM приостановили предоставление своих технологий распознавания лиц правоохранительным органам до принятия законодательства, которое определит разрешенные границы их использования.
Библиография
1. Russell S, Norvig P. Artificial Intelligence: A Modern Approach (4th Edition). Pearson 2020, ISBN 9780134610993.
2. Цифровая экономика: актуальные направления правового регулирования: научно-практическое пособие / М.О. Дьяконова, А.А. Ефремов, О.А. Зайцев и др.; под ред. И.И. Кучерова, С.А. Синицына.-Москва: ИЗиСП, НОРМА, 2022. – С. 376 с.-DOI 10.12737/1839690. 3. Базы знаний интеллектуальных систем / Т.А. Гаврилова, В.Ф. Хорошевский-СПб: Питер, 2000.-384 c. 4. ПНСТ 553-2021 Информационные технологии (ИТ). Искусственный интеллект. Термины и определения. М.: ФГБУ «РСТ», 2021. 5. Филипова И.А. Правовое регулирование искусственного интеллекта учебное пособие, 2-е издание, обновленное и дополненное / И.А. Филипова. – Нижний Новгород: Нижегородский госуниверситет, 2022. – 275 c. 6. Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of the 1st Conference on Fairness, Accountability and Transparency, PMLR 81:77-91, 2018. Retrieved from https://bit.ly/3Fc8fTd. 7. Amazon scraps secret AI recruiting tool that showed bias against women.-URL: https://bit.ly/3Bfw5MI (дата обращения: 02.04.2023). 8. An individual-level socioeconomic measure for assessing algorithmic bias in health care settings: A case for HOUSES index. Journal of the American Medical Informatics Association. Retrieved from https://bit.ly/3W3pI7o. doi 10.1101/2021.08.10.21261833. 9. A Local Law to amend the administrative code of the city of New York, in relation to automated employment decision tools.-URL: https://bit.ly/3iOkrlL (дата обращения: 02.04.2023). References
1. Russell S, Norvig P. Artificial Intelligence: A Modern Approach (4th Edition). Pearson 2020, ISBN 9780134610993.
2. Digital Economy: Current Directions of Legal Regulation: scientific and practical guide / ed. by I. I. Kucherov, S. A. Sinitsyn.-Moscow: Norma : ILCL, 2022.-376 p. doi 10.12737/1839690. 3. Knowledge bases of intelligent systems / T.A. Gavrilova, V.F. Khoroshevsky.-SPb: Piter, 2000.-384 p. – ISBN 5-272-00071-4. 4. Preliminary National Standard of the Russian Federation 553-2021 Information Technologies (IT). Artificial intelligence. Terms and Definitions.-Moscow: FGBU RST, 2021. 5. Filipova I.A. Legal regulation of artificial intelligence textbook, 2nd edition / I.A. Filipova.-Nizhny Novgorod: Nizhny Novgorod State University, 2022. 6. Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of the 1st Conference on Fairness, Accountability and Transparency, PMLR 81:77-91, 2018. Retrieved from https://bit.ly/3Fc8fTd. 7. Amazon scraps secret AI recruiting tool that showed bias against women. Retrieved from https://bit.ly/3Bfw5MI. 8. An individual-level socioeconomic measure for assessing algorithmic bias in health care settings: A case for HOUSES index. Journal of the American Medical Informatics Association. Retrieved from https://bit.ly/3W3pI7o. doi 10.1101/2021.08.10.21261833. 9. A Local Law to amend the administrative code of the city of New York, in relation to automated employment decision tools. Retrieved from https://bit.ly/3iOkrlL.
Результаты процедуры рецензирования статьи
В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
Предмет исследования. Предложенная на рецензирование статья посвящена правовому признанию «…технологий искусственного интеллекта в контексте конституционных ценностей российского государства». Автором выбран особый предмет исследования: предложенные вопросы исследуются с точки зрения международного, конституционного, информационного права, при этом автором отмечено, что «Часто предсказывается возможность замены человеческого разума машинным, что может привести к трансформации права, его машинизации и избавлению от пороков человеческой природы». Изучаются НПА, имеющие отношение к цели исследования. Также изучается и обобщается малый объем российской и зарубежной (две) научной литературы по заявленной проблематике, анализ и дискуссия с данными авторами-оппонентами присутствует. При этом автор отмечает: «Техническая литература определяет искусственный интеллект как набор информационных технологий, способных помочь человеку в решении конкретных прикладных задач, но не обладающих сверхспособностями в сравнении с людьми». Методология исследования. Цель исследования определена названием и содержанием работы: «… при юридической характеристике технологий искусственного интеллекта необходимо исходить из того, что сам термин «интеллект» не имеет однозначного и общепризнанного определения», «Более продуктивным представляется взгляд на искусственный интеллект как на комплекс информационных технологий, позволяющих обрабатывать и анализировать данные с целью выполнения конкретных задач вне связи с проявлениями мыслительной деятельности человека». Они могут быть обозначены в качестве рассмотрения и разрешения отдельных проблемных аспектов, связанных с вышеназванными вопросами и использованием определенного опыта. Исходя из поставленных цели и задач, автором выбрана определенная методологическая основа исследования. Автором используется совокупность частнонаучных, специально-юридических методов познания. Методы анализа и синтеза позволили обобщить подходы к предложенной тематике двух авторов и повлияли на выводы автора. Наибольшую роль сыграли специально-юридические методы. В частности, автором применялись формально-юридический и сравнительно-правовой методы, которые позволили провести анализ и осуществить толкование норм актов российского и международного законодательства и сопоставить различные документы. В частности, делаются такие выводы: «Использование терминов «искусственный интеллект», «нейронная сеть», «машинное обучение» может означать разработку новых цифровых технологий, но не требует аналогий с интеллектом живых организмов», «…целесообразно расширение правовых возможностей общественного контроля в сферах, потенциально подверженных последствиям дискриминационного машинного обучения, а также применение правовых мер, направленные на обеспечение обратной связи граждан с разработчиками систем искусственного интеллекта» и др. Таким образом, выбранная автором методология не в полной мере адекватна цели статьи, позволяет изучить некоторые аспекты темы. Актуальность заявленной проблематики не вызывает сомнений. Данная тема является важной в мире и в России, с правовой точки зрения предлагаемая автором работа может считаться актуальной, а именно он отмечает «…регулирование отношений, связанных с применением технологий «слабого» искусственного интеллекта, является весьма актуальной задачей». И на самом деле здесь должен следовать анализ работ оппонентов, и он следует в отношении только двух из многочисленных, автор показывает умение владеть материалом. Тем самым, научные изыскания в предложенной области стоит только приветствовать. Научная новизна. Научная новизна предложенной статьи не вызывает сомнения. Она выражается в конкретных научных выводах автора. Среди них, например, такой: «Наделение систем искусственного интеллекта правами и обязанностями, главным образом, соответствует желанию их создателей избавиться от ответственности за действия автономных систем и переложить эту ответственность на пользователей или на самих носителей искусственного интеллекта. В случае признания таких систем субъектами права, их правовой статус будет иллюзорным, что скорее всего приведет к фактической безответственности их создателей». Как видно, указанный и иные «теоретические» выводы могут быть использованы в дальнейших исследованиях. Таким образом, материалы статьи в представленном виде могут иметь интерес для научного сообщества. Стиль, структура, содержание. Тематика статьи соответствует специализации журнала «Юридические исследования», так как посвящена правовому признанию «…технологий искусственного интеллекта в контексте конституционных ценностей российского государства». В статье присутствует аналитика по научным работам оппонентов, поэтому автор отмечает, что уже ставился вопрос, близкий к данной теме и автор использует их материалы, дискутирует с оппонентами. Содержание статьи соответствует названию, так как автор рассмотрел заявленные проблемы, достиг цели своего исследования. Качество представления исследования и его результатов следует признать доработанным. Из текста статьи прямо следуют предмет, задачи, методология, результаты исследования, научная новизна. Оформление работы соответствует не всем требованиям, предъявляемым к подобного рода работам. Существенные нарушения данных требований: практически полное отсутствие научной литературы, что не позволяет автору обнаружить проблемы и проанализировать исследования оппонентов. Библиография не полная, содержит 2 публикации, НПА, к которым автор обращается. Это позволяет автору относительно правильно определить проблемы и поставить их на обсуждение. Следует положительно оценить качество представленной, но отрицательно - количество использованной литературы. Присутствие современной научной литературы показало бы большую обоснованность выводов автора и возможно повлияло бы в какой-то мере на выводы автора. Труды приведенных авторов соответствуют теме исследования, но не обладают признаком достаточности, способствуют раскрытию некоторых аспектов темы. Апелляция к оппонентам. Автор не провел серьезный анализ текущего состояния исследуемой проблемы по работам оппонентов, т. к. их практически нет. Автор описывает некоторые точки зрения оппонентов на проблему, аргументирует правильную по его мнению позицию, практически не опираясь на работы оппонентов, предлагает варианты решения проблем. Выводы, интерес читательской аудитории. Выводы являются логичными, конкретными «…использование машинного обучения подвергает опасности реализацию принципа равноправия и требует применения правовых мер, чтобы обеспечить его соблюдение в условиях широкого распространения не вполне совершенных технологий искусственного интеллекта» и др. Статья в данном виде может быть интересна читательской аудитории в плане наличия в ней систематизированных позиций автора применительно к заявленным в статье вопросам, но только после доработки в части анализа работ оппонентов. На основании изложенного, суммируя все положительные и отрицательные стороны статьи «рекомендую отправить на доработку». |