Библиотека
|
ваш профиль |
Философия и культура
Правильная ссылка на статью:
Глуздов Д.В.
Перспективы преодоления противоречий развития искусственного интеллекта
// Философия и культура.
2023. № 4.
С. 205-216.
DOI: 10.7256/2454-0757.2023.4.40417 EDN: TFBVZU URL: https://nbpublish.com/library_read_article.php?id=40417
Перспективы преодоления противоречий развития искусственного интеллекта
DOI: 10.7256/2454-0757.2023.4.40417EDN: TFBVZUДата направления статьи в редакцию: 10-04-2023Дата публикации: 01-05-2023Аннотация: Предмет данного исследования – совокупность потенциальных противоречий развития искусственного интеллекта, рассматриваемых с целью выявления возможности их преодоления. Философская антропология содержит в себе потенциал для анализа сложных взаимодействий, для артикуляции проблем, возникающих между искусственным интеллектом и людьми. Философско-антропологический анализ искусственного интеллекта ориентирован на понимание влияния этого взаимодействия на феномен человека, человеческое существование и его опыт. Статья является попыткой выявить и наметить траектории по возможному преодолению противоречий развития искусственного интеллекта, проанализировать инструменты, предлагаемые философской антропологией, для разрешения возникающих проблем в современной социокультурной ситуации. Актуальность рассматриваемой темы заключается в том, что искусственный интеллект качественно меняет бытие человека, а у философской антропологии есть потенциал наметить перспективы развития искусственного интеллекта, сохраняя человеческое в человеке. Изучение этих перспектив крайне важно в современном обществе. Новизна темы, поднятой в статье, заключается в анализе искусственного интеллекта с позиций философской антропологии, в артикуляции противоречий в развитии искусственного интеллекта, в поиске решений по преодолению этих противоречий. Философская антропология предоставляет инструментарий для взвешенного принятия решений о развитии искусственного интеллекта, степени его вмешательства в бытие человека. Ключевые слова: философская антропология, человек, искусственный интеллект, технология, противоречия, сознание, свобода, диалог, этика, междисциплинарное сотрудничествоAbstract: The subject of this study is a set of alleged contradictions in the development of artificial intelligence, pursued in order to achieve their overcoming. Philosophical anthropology contains the potential to analyze complex interactions, to articulate the problems that arise between artificial intelligence and humans. The philosophical and anthropological analysis of artificial intelligence is aimed at understanding this human phenomenon, human presence and its experience. The article is an attempt to identify and outline the trajectories for the possible resolution of the contradiction in the development of artificial intelligence, the analysis of the parameters proposed by philosophical anthropology to solve their problems in the modern socio-cultural situation. The relevance of the proposed problem arises in the fact that artificial intelligence qualitatively changes the existence of a person, and in philosophical anthropology there is a potential to outline the prospects for the development of artificial intelligence, while preserving the languid human in a person. To study this perspective is very important in society. The novelty of the topic raised in the article is the analysis of solving the problems of artificial intelligence from the standpoint of philosophical anthropology, in the articulation of contradictions in the development of artificial intelligence, in the search for solutions to overcome these contradictions. Philosophical anthropology provides tools for a balanced decision on the development of artificial intelligence, the degree of its impact on human existence. Keywords: philosophical anthropology, human, artificial intelligence, technology, contradictions, consciousness, free will, dialogue, ethics, interdisciplinary cooperation
Введение Искусственный интеллект (далее – ИИ) быстро меняет многие аспекты разных сфер человеческой жизни: от здравоохранения и образования до транспорта и развлечений. Хотя его потенциальные преимущества огромны, существуют также значительные риски и проблемы, связанные с его разработкой, развитием, внедрением, использованием и влиянием на человека и общество. Эти проблемы варьируются от технических и этических проблем до социальных, политических, экономических и экологических проблем, и для их решения требуется комплексный и междисциплинарный подход. Философская антропология как направление философии, которое стремится понять человеческую природу и основы его существования, способна проанализировать сложные взаимодействия между искусственным интеллектом и людьми. Исследование, представленное в данной статье, направлено на изучение перспектив преодоления противоречий в развитии ИИ с философско-антропологической точки зрения, путем анализа ключевых понятий, вызовов и возможностей, возникающих в этом контексте. Предмет данного исследования обозначен в названии настоящей статьи и включает в себя совокупность потенциальных противоречий развития искусственного интеллекта, рассматриваемых на предмет возможности их преодоления. При рассмотрении вопроса мы понимаем наличие некоторой размытости в содержании термина «искусственный интеллект» и с целью точнее очертить его границы здесь мы под этим понятием принимаем любые системы, в том числе их функциональность, которая предоставляет средства и технологии для имитации человека и выполняемых им интеллектуальных задач, которые всегда воспринимались как способности присущие только человеку. С этой точки зрения, термин «искусственный разум», соответствующий скорее «сильному» ИИ, совершенно не равноценен понятию «искусственный интеллект» («слабый» искусственный интеллект). За последние два десятилетия акцент исследований заметно сместился. Ранее большинством исследователей проблемы ИИ виделись в вопросе о возможности создания «по образу и подобию» искусственного аналога естественного (человеческого) интеллекта. В современном состоянии проблема искусственного интеллекта более обширна и является набором самых разнообразных проблем и задач, связанных, не только с интеллектом, моделированием психики, мышления, а также с возможностями распознавания объектов, автоматизацией производства, отдельными интеллектуальными задачами (например, с доказательством теорем, выделением содержательной части текстов). Философские исследования, производимые в данной области, касаются в основном выявления философских оснований искусственного интеллекта, возможных вопросов взаимодействия человеческого и искусственного интеллектов, оценке, к сожалению, в основном негативных последствий влияния ИИ на человека и общество и т.п. Вопросы, связанные с преодолением противоречивого характера влияния объекта исследования, скорее обозначались, но не исследовались на предмет поиска предложений по их решениям. По этой причине считаем, что данные исследования находятся лишь начале своего пути и ситуация требует формулировки проблемы, её уточнения, дополнительной постановки вопросов, поиска и предложений по их решению. Задачей, рассматриваемой здесь, является попытка выявления недостатков существующей ситуации, определения целевого ориентира по результатам проведённого ранее философско-антропологического анализа и оценке возможных перспектив. Подходя к исследованию с этих позиций, в источниках, рассмотренных процессе, не было выявлено материалов, рассматривающих проблему всесторонне, объединяющих в себе как задачу выявления причин и оснований этих противоречий, так и их анализ с позиций философской антропологии, а вовлечение именно философской антропологии определяет новизну исследования. Гипотетико-дедуктивный и диалектический методы в данной работе основными являются в методологическом плане. Но также традиционно, когда исследователь изучает тексты научных источников, используются герменевтический метод, который совместно с феноменологическим подходом, являются, скорее всего, наиболее часто используемыми в случае философских исследований. Философская антропология и искусственный интеллект Один из современных вопросов философской антропологии – отношения между людьми и машинами или технологиями, и это особенно актуально в отношении ИИ-систем. В процессе того, как возможности искусственного интеллекта становятся все более совершенными, всё чаще в повестке можно увидеть вопросы, связанные с природой человеческого интеллекта и сознания и о того как интеллект естественный соотносятся с интеллектом искусственным [1, 2, 3]. Философы спорят о природе человеческого разума и о том, могут ли машины воспроизводить человеческий интеллект, сознание и эмоции [3, с.19-20] [4, с.33]. Некоторые утверждают, что люди обладают уникальными качествами, такими как творчество, эмпатия и моральное мышление, которые не могут быть воспроизведены машинами, в то же время существуют противоположные мнения, утверждающие, что эти качества не столь уникальны для людей и доступны, например, другим животным, и могут быть смоделированы с помощью ИИ. Философская антропология поднимает этические вопросы об использовании ИИ в обществе и его потенциальном влиянии на человеческую жизнь [5, 6]. Например, такие вопросы, как ответственность ИИ за свои действия, влияние автоматизации на занятость и способность ИИ усугублять социальное неравенство и усиливать предубеждения/заблуждения, являются соответствующими этическими проблемами. Беря за основу человека, философская антропология способна предложить ряд концепций, идей, критериев, имеющих отношение к перспективам преодоления противоречий развития искусственного интеллекта. Среди них можно в первую очередь выделить следующие: · Природа человека: одна из ключевых философских концепций, имеющих отношение к развитию ИИ. Она относится к врожденным качествам и характеристикам, которые определяют, что значит быть человеком. По мере развития ИИ возникают вопросы о том, могут ли машины воспроизвести человеческую природу или могут ли машины превзойти человеческую природу. Например, могут ли машины обладать эмоциями или интуицией, которые традиционно ассоциируются с человеческой природой? Как следствие возникает вопрос о пределах возможностей машинного интеллекта и о том, в какой степени ИИ может заменить человеческие способности и компетенции. · Интеллект – философская концепция, занимающая центральное место в разработке ИИ, означающая способность приобретать и применять знания и навыки. Изначально системы искусственного интеллекта предназначены для имитации человеческого интеллекта, но вследствие этого возникают вопросы о природе машинного интеллекта. Например, могут ли машины действительно понимать значение слов или они просто обрабатывают шаблоны? Могут ли машины развивать настоящее творчество или они ограничены воспроизведением существующих шаблонов? И критерием или лекалом здесь является человек. · Сознание. Еще одно ключевое философское понятие, имеющее фактически непосредственное отношение к развитию искусственного интеллекта. Сознание относится к субъективному опыту осознания своего окружения, мыслей и чувств. Развитие ИИ поднимает вопросы о том, могут ли машины быть сознательными. Некоторые утверждают, что сознание является продуктом работы мозга, и поэтому машины не могут быть сознательными. Другие предполагают, что сознание может возникнуть в результате сложных вычислительных процессов, и, следовательно, машины могут когда-нибудь обрести сознание. Мы не можем помыслить нечеловеческое сознание и, видимо, образцом для нас здесь может быть тоже только человек – его сознание. · Автономия – это способность действовать независимо и принимать решения без внешнего влияния. Её наличие у объекта или явления обозначает наличие свойства «автономности – имманентных собственных закономерностей существования и развития» [7]. По мере того как системы ИИ становятся более совершенными, они могут становиться все более автономными. Это поднимает вопросы о роли человека в процессе принятия решений [8]. Например, кто будет нести ответственность, если автономная ИИ-система примет решение, имеющее негативные последствия? · Этика и ценности – философские концепции, которые по всей видимости, должны занимать центральное место в процессе анализа развития ИИ. Например, мы должны понимать, как гарантировать то, что ИИ-системы разрабатываются, развиваются и используются с соблюдением этических норм и в соответствии с человеческими ценностями? Как мы можем предотвратить неправомерное использование систем ИИ во вредоносных целях? · Моральная ответственность – это идея о том, что отдельные лица и организации должны нести ответственность за последствия своих действий. В контексте развития ИИ это означает, что развитие и применение ИИ-систем должны определяться ответственные за этические последствия своей технологии. Сюда входят и такие соображения, как влияние ИИ на занятость, возможную предвзятость и дискриминацию, а также неправомерное использование [9]. · Прозрачность для понимания человеком означает, что в случае любого развития и применения систем ИИ должны быть интерпретируемы и понимаемы человеком с точки зрения решений, которые принимает система, чтобы заинтересованные стороны могли оценить этические последствия этих решений. Каждый из этих пунктов является источником противоречий в развитии искусственного интеллекта. Каждый из этих пунктов самым непосредственным образом завязан на человека. В рамках каждого из этих пунктов можно прогнозировать противоречия в отношении искусственного интеллекта и человека и искать подходы для их разрешения, а значит философская антропология должна быть активным участником в этой работе. Как это не парадоксально, одной из основных проблем философской антропологии является определение, что значит быть человеком. Среди ученых ведутся давние споры о том, что значит быть человеком, при этом разные школы мысли подчеркивают разные аспекты человеческой природы, такие как рациональность, эмоции, воплощение и социальные отношения. Определение того, что значит быть человеком, имеет важное значение для развития ИИ, потому что это может помочь гарантировать, что системы ИИ разрабатывались таким образом, чтобы они соответствовали человеческим ценностям. Чтобы разрешать выявляемые и потенциальные проблемы с ИИ, применяя при этом инструментарий философской антропологии, необходимо интегрировать идеи с разными областями знаний, подходами, позициями, точками зрения, среди которых будут технологии, инженерия, право, социальные науки и т.д. Это требует сотрудничества вне дисциплинарных и отраслевых границ отдельных наук, что может оказаться сложным в реализации. Но несмотря на сложности междисциплинарного взаимодействия, привлечение философской антропологии открывает двухсторонние возможности, в том числе возможность если не в переосмыслении, то хотя бы в развитии и расширении нашего понимания места человека и его отношений с технологиями. Размышляя о природе человека, а также его места в мире, философ может (скорее должен!) участвовать в проработке вопросов развития систем искусственного интеллекта, для проецирования в них более бережного отношения к нам самим, нашей среде обитания и отдаче предпочтения благополучию людей, мешая таким образом решению только узких экономических или технологических интересов. Обзор литературы Не выходя за границы, которые очерчивает философская антропология, а также оставаясь в пределах вопроса об интеллекте с точки зрения проблемы философии сознания, можно сделать вывод, что вопрос о природе сознания человека в европейской философии возникал постоянно. В Новое время активно поднимались вопросы как о характере, так и самом мышлении. В это время естественный человеческий интеллект сравнивается с механизмом – с машиной, – что не удивительно, так как это эпоха, когда взрывное развитие механики как науки наложило свой отпечаток на мышление, а интеллект сопоставлялся с часами, как с наиболее развитым и изученным механизмом на тот момент. Подобное сравнение мы можем обнаружить у разных философов Нового времени и в первую очередь у Рене Декарта, Готфрида Лейбница и у Жюльена Офре де Ламеттри. Переходя к современной постановке проблемы сознания, необходимо отметить, что данным вопросом занимались такие западные философы, как К-О. Апель, Д. Армстронг, С. Блэкмор, Д. Деннет, У. Джеймс, Сол Крипкe, У. Ван О. Куайн, К. Макгин, Т. Нагель, Дж. Остин, Дев. Папино, Дж. Пассмор, С. Пинкер, Чарльз С. Пирс, У. Плейс, К. Поппер, Г. Райл, Б. Рассел, Дж. Серл, У. Смарт, П. Стросон, Дж. Фодор, Г. Фреге, Ю. Хабермас, Н. Хомский, Д. Чалмерс, Дж. Экклз, А. Элитцур. Схожие вопросы, касающиеся в первую очередь естественного интеллекта и сознания, изучались и изучаются нашими отечественными философами такими как А. Ю. Алексеев, В. В. Васильев, Д. Б. Волков, И. Г. Гаспаров, В. В. Горбатов, Д. И. Дубровский, А. М. Иваницкий, Д. В. Иванов, В. А. Лекторский, С. Ф. Нагуманова, Ю. В. Орфеев, В. И. Самохвалова, А. Г. Спиркин, В. С. Тюхтин, Т. В. Черниговская, Б. Г. Юдин, Н. С. Юлина. Проблемы искусственного интеллекта, находят отражение в работах многих зарубежных учёных, среди которых М. Арбиб, Дж. Вейценбаум, С. Дрейфус, X. Дрейфус, Дж. Маккинси, X. Патнэм, Р. Пенроуз, Б. Розенблум, А. Тьюринг, Р. Шенк. Несомненно, не обходят эту тему отечественные ученые и философы, среди которых А. П. Алексеев, А. Ю. Алексеев, И. Ю. Алексеева, В. В. Васильев, Д. Б. Волков, Д. И. Дубровский, А. Ф. Зотов, В. А. Лекторский, А. П. Огурцов, Ю. В. Орфеев, В. И. Самохвалов, Н. М. Смирнова, А. Г. Спиркин, В. С. Тюхтин, Н. С. Юлина. Непосредственно противоречия искусственного интеллекта в том или ином виде в своих работах рассматривали Н. Виннер, Н. Бостром, Д. Деннет, X. Дрейфус, П. Норвиг, С.Рассел, Д. Сёрл. Из отечественных учёных и исследователи, можно выделить таких как А. Ю. Алексеев, Д. И. Дубровский, Э. В. Ильенков, В. А. Кутырёв, А.Л. Лекторский, Ю. Ю. Петрунин. Логические проблемы искусственного интеллекта рассматриваются также в работах И. Ю. Алексеевой, С. Л. Катречко. Достаточно обширный круг вопросов информатизации, в котором тема искусственного интеллекта составляет только часть, рассматривается в работах Дж. Вейценбаума, Н. Винера, В.А. Звегинцева, К.А. Зуева, Г. Л. Смоляна, А. И. Ракитова. Изучение источников даёт основание считать, что в научной литературе нет полноты и целостности картины в отношении вопроса, поднятого в теме данной статье, – о перспективах преодоления противоречий развития искусственного интеллекта. Следствием этого можно считать возможным сделать оценку о недостаточной степени проработанности сформулированной в теме статьи проблемы. Исследователи раскрывают отдельные аспекты проблемы или обращают внимание на отдельные противоречия, развивая их, обобщая, анализируя либо с позиции общества, либо недостаточно акцентируя внимание на проблеме человека, чаще всего усугубляя отдельную сторону противоречий, например, негативную составляющую. Можно так же отметить, что в работах, посвященных данной теме, у авторов не всегда есть единая позиция в терминологии – в философский дискус замешаны понятия искусственного интеллекта, систем с элементами искусственного интеллекта и искусственный разум. Противоречия развития искусственного интеллекта Развитие искусственного интеллекта характеризуется рядом противоречий, возникающих в результате взаимодействия различных факторов и субъектов, участвующих в этом процессе. Эти противоречия можно обнаружить и проанализировать при обзоре литературы и эмпирических данных из различных областей, таких как информатика, экономика, социология, этика и политика. Одним из главных противоречий является потенциальная утрата человеком свободы воли. По мере того, как системы ИИ становятся более совершенными, они могут начать принимать решения и действовать независимо, без участия человека. Противоречие заключается в том, что ориентируясь на обеспечение благополучия или здоровья человека, применение искусственного интеллекта может иметь отрицательные, негативные результаты [10, с.119]. В качестве примеров противоречий также можно привести следующие: противоречие между эффективностью и творчеством, противоречие между предсказуемостью и адаптируемостью, противоречие между конфиденциальностью и безопасностью, противоречие между человеческим контролем и автономией машин, экономические и противоречия между глобальным сотрудничеством и национальной конкуренцией, а также технические и технологические противоречия [11, 9, 12, 13, 14]. Выявлению, перечислению и классификации можно посвятить отдельную статью и в рамках данной работы углубляться в эту тему не будем. Перспективы преодоления противоречий развития искусственного интеллекта В ответе Мартина Хайдеггера на вопрос: «Является ли техника главной опасностью для человека?» [15, с.149] есть и противоречивость нашей темы, и содержится ответ на наличие возможности преодоления. А ответил он словами Фридриха Гёльдерлина: «Там где опасность, идет и спасенье». Увлечение технологиями и уклонение от необходимости понять человеческую природу ведёт к тому, что человека в итоге начинают рассматривают как инструмент производства или объект потребления. Это приводит к искажению человеческих ценностей и кризису в культуре. Искусственный интеллект так же становится тем инструментом, который ведёт человека в мир, где он становится только объектом потребления, где происходит искажение человеческих ценностей. Это причина, по которой философская антропология должна задавать конкретным наукам исходные посылки для развития. Устранение противоречий в этом развитии с участием философской антропологии предполагает применение выводов и взглядов из её области исследований в области обсуждения ИИ. Предлагаем некоторые подходы, используя которые, философская антропология может помочь преодолеть возможные противоречия: · Изучение природы человека. Вовлечение и вовлечённость учёных прикладных наук через философскую антропологию к изучению понимания (или правильнее сказать поиску понимания) человеческой природы, способно помочь в человекоориентировании ИИ и, следовательно, влиять на его развитие. Более того, осознавая уникальность и особенности человека, мы можем определить потенциальные области противоречий на любых стадиях в процессе развития систем ИИ, что даёт нам возможность заблаговременно формировать перечень проблем, с которыми необходимо работать. · Ориентир на этические нормы и последствия: философская антропология может помочь обозначить потенциальные этические последствия разработки систем ИИ. Применяя уже существующие этические принципы и ценности, мы так же способны выявлять потенциальные области противоречий в развитии ИИ и работать над их смягчением или исключением. · Обработка культурного контекста: философская антропология способна определить социальный и культурный контекст, в котором разрабатываются системы ИИ, и то, как это должно повлиять на развитие этих систем. Осознавая социальные и культурные факторы, мы также можем выявить потенциальные области противоречий ИИ и работать над их нивелированием. Изучая основополагающие принципы, лежащие в основе имеющихся ценностей, философы могут глубже понять, что важно для людей разных культур. Это имеет место в таких случаях, когда, например, когда в одних культурах большое внимание уделяется семье и сообществу, в противоположность тем, где высоко ценится индивидуальная автономия. Это может помочь выявить точки соприкосновения и области потенциального согласия даже перед лицом кажущихся непримиримыми разногласий. · Ориентир на благополучие человека: это подход, который заключается в том, чтобы сосредоточиться на положительном влиянии ИИ на благополучие человека. Системы искусственного интеллекта можно использовать для улучшения здравоохранения, образования и других сфер жизни человека. Это может создать новые возможности для процветания человечества и помочь нам решить насущные социальные проблемы. · Ориентир на человека, его опыт и ценности: требует продвижение требований не только в отношении существующих норм, принимаемых как обязательные, но с адаптацией дизайна, интерфейса и способов взаимодействия ИИ. Это взаимодействие должно ориентироваться на удобство восприятия человеком, а также на сотрудничестве человека и искусственного интеллекта с режимом благоприятствования человеку – машина не участник отношений, а инструмент. Это означает сосредоточение на человеческих предпочтениях, эмоциях, опыте, ценностях (сочувствие, сострадание, справедливость), не создавая новые, футуристические неопробованные подходы. Это будет ориентировать развитие ИИ-систем в сторону лучшей реакции на предпочтения и опыт аудитории, что больше мотивирует на сотрудничество и совместное творчество человека и искусственного интеллекта. · Усиление контроля со стороны человека и с точки зрения человеческих ценностей: должна существовать подконтрольность при проектировании систем искусственного интеллекта, чтобы принципиально сохранялась возможность контроля и права принятия окончательного решений человеком на любом этапе – не только при разработке и внедрении, но при функционировании. · Фокусировка на конечную цель в развитии ИИ: философская антропология может помочь определиться с конечной целью развития технологии, что так же может быть ориентиром. Сопоставляя цели человека и его ценностями с целями и ценности, которыми руководствуются при развитии ИИ, мы можем сразу выявить потенциальные области противоречий. Важность междисциплинарного сотрудничества Противоречия, возникающие в связи с развитием искусственного интеллекта, не могут быть решены лишь отдельной наукой (если эти противоречия не носят чисто технический характер). Требуется комплексный подход, предлагающий сочетание технических, социальных, экономических и политических мер, а также этических и культурных идей и моделей. Для устранения выявляемых противоречий возможно применение некоторых решений или стратегий, свойственных философской антропологии, которые упомянуты выше (иные противоречия и способы их устранения, такие как установление глобальных стандартов и норм для управления, технические, политические и экономические меры, и т.д., целью рассмотрения данной статьи не являются). Философская антропология с учётом предложенных выше подходов, может сыграть ключевую роль в преодолении рассматриваемых противоречий ИИ. Философская антропология предоставляет инструментарий для взвешенного принятия решений о развитии ИИ, степени его вмешательства в бытие человека. Разработка искусственного интеллекта является по своей сути междисциплинарным подходом. Происходящее вовлечение философии, этики и социальных наук только усиливает этот тезис. Более того, всё сказанное выше, подтверждает то, что это подобное сотрудничество принципиально необходимо, так как как только науки, ориентированные на человека и общество, могут дать требуемый ориентир в развитии – то чего не способна дать ни одна инженерная наука. И здесь философия может играть ключевую роль имея в своём арсенале, например, этику. Специалисты по этике могут помочь обозначить и решить этические проблемы ИИ, а также обеспечить разработку и использование систем ИИ в соответствии с нашими этическими и социальными ценностями. Более того, специалисты по этике могут способствовать повышению осведомленности общественности и вовлечению ее в этические последствия развития и внедрения искусственного интеллекта в нашу жизнь. Социальные науки также играют важную роль в понимании социальных и политических аспектов развития ИИ. Социологи, антропологи и политологи могут помочь в изучении социальных и культурных последствий развития ИИ. Ограничения предлагаемых подходов Хотя предлагаемые подходы и могут устранить выявляемые противоречия и обеспечить более гармоничный и ориентированный на человека подход к развитию ИИ, они всё же столкнутся с рядом ограничений. К ним можно отнести сложность в реализации на практике, возможность потенциальных конфликтов между различными решениями, неопределенность долгосрочных последствий применения ИИ и необходимость постоянной оценки, адаптации и улучшения. Более того, предлагаемых вариантов может быть просто недостаточно для решения всех противоречий и проблем, и может потребоваться их дополнение другими подходами и перспективами. Чтобы улучшить наше понимание и применимость философской антропологии к вопросам ИИ, есть несколько направлений для исследований, в том числе и для применения в рамках предложенного выше сотрудничества. К ним относятся следующие: · дальнейшее изучение последствий развития ИИ, связанных с природой сознания, деятельности, ответственность и идентичность; · изучение этических и социальных последствий ИИ в конкретных областях, таких как здравоохранение, образование, занятость и безопасность; · решение вопросов интеграции в работу различных точек зрения и дисциплин, таких как информатика, неврология, психология, социология, философия и культурология; · взаимодействие с различными заинтересованными сторонами и общественностью, например, с политиками, лидерами отрасли, организациями гражданского общества и гражданами. Заключение По нашему мнению, философская антропология имеет мощный инструментарий для выявления, оценки и преодоления противоречий и разрешения конфликтов. Давая глубокое понимание того, что значит быть человеком, а также имея возможность сформулировать критерии, оценивающие результаты деятельности, философы могут помочь преодолеть разрыв между различными культурами и обществами и разработать более эффективные решения проблем. Мы исследовали перспективы преодоления противоречий в развитии искусственного интеллекта с философско-антропологической точки зрения. Обозначили базовые подходы возможные к применению для решения. Наш анализ подчеркивает необходимость более целостного, междисциплинарного и основанного на ценностях подхода к разработке ИИ, который сочетает в себе технические, социальные, экономические, политические и этические меры и отдает приоритет ориентированным на человека и ответственным инновациям. Мы утверждаем, что философская антропология может внести ценный вклад в этот подход, обеспечивая критическое осмысление, нормативное руководство и междисциплинарное сотрудничество.
Библиография
1. Лекторский В. А. Философия, искусственный интеллект, когнитивные исследования // Материалы Всерос. междисциплинар. конф., посвящ. шестидесятилетию исслед. искусств. интеллекта (г. Москва, 17–18 марта 2016 г.) – М.: ИИнтелл, 2017. – С. 87-94.
2. Розин В. М. – Две концепции искусственного интеллекта: реалистическая и утопическая // Философская мысль. – 2023. – №2. – С.102-114. – DOI: 10.25136/2409-8728.2023.2.39739 EDN: DDLZIT URL: https://nbpublish.com/library_read_article.php?id=39739 3. Глуздов Д. В. Философско-антропологические основания взаимодействия искусственного и естественного интеллекта // Вестник Мининского университета. 2022. Т. 10, №4 С. 15. DOI: 10.26795/2307-1281-2022-10-4-15 4. Яковлева Е. В., Исакова Н. В. Искусственный интеллект как современная философская проблема: аналитический обзор // Гуманитарные и социальные науки. 2021. №6. – С. 30-35. DOI: 10.18522/2070-1403-2021-89-6-30-35 5. Roche C., Wall P. J., Lewis D. Ethics and diversity in artificial intelligence policies, strategies // AI and Ethics. – Springer Nature, 2022. DOI: 10.1007/s43681-022-00218-9 – URL: https://link.springer.com/article/10.1007/s43681-022-00218-9 6. Mittelstadt B. Principles alone cannot guarantee ethical AI // Nature Machine Intelligence – Volume 1, November 2019 – p. 501-507. DOI: 10.1038/s42256-019-0114-4 7. Можейко М. А. Судаков А. К. Автономия // Статья Гуманитарного портала – 2022 – [Электронный ресурс]. – Режим доступа: URL: https://gtmarket.ru/concepts/7323 (дата обращения: 30.03.2023) 8. Лекторский В. А. Об автономности искусственного интеллекта, свободе выбора и ответственности // «Научная Россия» – 2021 – [Электронный ресурс]. – Режим доступа: URL: https://scientificrussia.ru/articles/akademik-ran-valektorskij-ob-iskusstvennom-razume-i-novyh-ugrozah 9. Preparing for the Future of Artificial Intelligence. 2016. Washington, DC. Executive Office of the President National Science and Technology Council Committee on Technology – 2016 – [Электронный ресурс]. URL: https://obamawhitehouse.archives.gov/sites/default/files/whitehouse_files/microsites/ostp/NSTC/preparing_for_the_future_of_ai.pdf (дата обращения: 14.03.2023) 10. Глуздов Д. В. Проблема свободы и идентичности человека в контексте развития искусственного интеллекта // Революция и эволюция: модели развития в науке, культуре, социуме: Труды III Всероссийской научной конференции / Под общей ред.А.М. Фейгельмана. [Электронный ресурс]. – Москва: Изд-во «Русское общество истории и философии науки», 2021. – С. 117-120 – Режим доступа: http://www.rshps.ru/books/rev-evo-2021.pdf (дата обращения: 30.03.2023) 11. Коробков А.Д. Влияние технологий искусственного интеллекта на международные отношения // Вестник МГИМО-Университета. – 2021 – С.1-25 DOI: 10.24833/2071-8160-2021-olf1 12. Thomas S. AI is the end of writing. The computers will soon be here to do it better. // The Spectator – 11Mart 2023 – [Электронный ресурс]. URL: https://www.spectator.co.uk/article/ai-is-the-end-of-writing/ (дата обращения: 14.03.2023) 13. Афанасьевская А.А. Правовой статус искусственного интеллекта // Вестник саратовской государственной юридической академии – 2021, №4 (141), – С. 88-92 DOI: 10.24412/2227-7315-2021-4-88-92 14. Bostrom N. Superintelligence: Paths, Dangers, Strategies – Oxford University Press – 2014 – 328 P. 15. Хайдеггер М. Разговор на проселочной дороге: Сборник: Пер. с нем. / Под ред. А. Л. Доброхотова. – М.: Высш. шк., 1991. – 192 с. References
1. Lektorsky, V. A. (2017). Philosophy, artificial intelligence, cognitive research. Materialy Vseros. interdisciplinary. conf., dedicated the sixtieth anniversary of research. arts. Intelligence (Moscow, March 17-18, 2016). P. 87-94. Moscow: IIntell.
2. Rozin, V. M. (2023). Two concepts of artificial intelligence: realistic and utopian. Philosophical Thought, 2, 102-114. doi:10.25136/2409-8728.2023.2.39739 URL: https://nbpublish.com/library_read_article.php?id=39739 3. Gluzdov, D. V. (2022). Philosophical and anthropological foundations of the interaction of artificial and natural intelligence. Bulletin of the Minin University, 10(4), 15. doi:10.26795/2307-1281-2022-10-4-15 4. Yakovleva E. V., & Isakova N. V. (2021). Artificial intelligence as a modern philosophical problem: an analytical review. Humanitarian and social sciences, 6, 30-35. doi:10.18522/2070-1403-2021-89-6-30-35 5. Roche C., Wall P. J., & Lewis D. (2022). Ethics and diversity in artificial intelligence policies, strategies. AI and Ethics. Springer Nature. doi:10.1007/s43681-022-00218-9 6. Mittelstadt, B. (2019). Principles alone cannot guarantee ethical AI. Nature Machine Intelligence-Volume 1, November, pp. 501-507. doi:10.1038/s42256-019-0114-4 7. Mozheiko, M. A. & Sudakov, A. K. (2022). Autonomy. Article of the Humanitarian Portal-2022-[Electronic resource]. Retrieved from https://gtmarket.ru/concepts/7323 8. Lektorsky, V. A. (2021). On the autonomy of artificial intelligence, freedom of choice and responsibility. "Scientific Russia"-2021-[Electronic resource]. Retrieved from https://scientificrussia.ru/articles/akademik-ran-valektorskij-ob-iskusstvennom-razume-i-novyh-ugrozah 9. Preparing for the Future of Artificial Intelligence. 2016. Washington, DC. Executive Office of the President National Science and Technology Council Committee on Technology-2016-[Electronic resource]. Retrieved from https://obamawhitehouse.archives.gov/sites/default/files/whitehouse_files/microsites/ostp/NSTC/preparing_for_the_future_of_ai.pdf 10. Gluzdov, D. V. (2021). The problem of human freedom and identity in the context of the development of artificial intelligence. Revolution and evolution: models of development in science, culture, society: Proceedings of the III All-Russian Scientific Conference. Under the general editorship of A.M. Feigelman. [Electronic resource]. Moscow: Publishing House "Russian Society for the History and Philosophy of Science", pp. 117-120. Retrieved from http://www.rshps.ru/books/rev-evo-2021.pdf 11. Korobkov, A.D. (2021). The impact of artificial intelligence technologies on international relations. Bulletin of MGIMO-University, 1-25. doi:10.24833/2071-8160-2021-olf1 12. Thomas, S. (2023). AI is the end of writing. The computers will soon be here to do it better. The Spectator-11 March 2023-[Electronic resource]. Retrieved from https://www.spectator.co.uk/article/ai-is-the-end-of-writing/ 13. Afanasievskaya, A.A. (2021). Legal status of artificial intelligence. Bulletin of the Saratov State Law Academy, 4(141), 88-92. doi:10.24412/2227-7315-2021-4-88-92 14. Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press. 15. Heidegger M. (1991). Conversation on a country road: Collection: Per. with him. Ed. A. L. Dobrokhotova. Moscow. Higher. school.
Результаты процедуры рецензирования статьи
В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
|