УДК 316

Этические проблемы искусственного интеллекта

Лукьянченко Владислав Сергеевич – аспирант Санкт-Петербургского университета технологий управления и экономики.

Аннотация: В последние годы развитие искусственного интеллекта получило большую динамику. ИИ уже внес большой вклад в прогресс общества, начал преобразовывать методы производства и изменять способы мышления в человеческом обществе. Искусственный интеллект – это новая цифровая технология, которая требует адаптации механизмов надзора и регуляции. Эта технология неизбежно сопряжена с социальными рисками, например, как утечка личной информации. Из-за стремительного развития технологий искусственного интеллекта, чтобы защитить основные интересы людей и способствовать здоровому развитию общества, нам необходимо укреплять международное сотрудничество, устанавливать новую государственную политику и способствовать установлению этики искусственного интеллекта. В этой статье рассматриваются этические вопросы, такие как этика прав человека, информационная этика и этика ответственности в контексте применения ИИ.

Ключевые слова: искусственный интеллект, этика, социальные риски, права человека.

В последние годы искусственный интеллект получил значительное развитие. Искусственный интеллект внес большой вклад в прогресс человеческого общества и изменил традиционные методы производства и способы мышления в человеческом обществе. Искусственный интеллект – это новая технология, но существующая система политики несовершенна, а механизм надзора отсутствует, либо находится в зачаточном состоянии.

Концепция ИИ восходит к 1950-м годам, когда исследователи впервые задумались о возможности использования машин для имитации человеческого интеллекта. Однако настоящий «взлет» искусственного интеллекта произошел только в конце 2000-х, когда несколько способствующих факторов достигли критической точки: беспрецедентная доступность доступной компьютерной мощности; рост объема и разнообразия данных, а также скорости доступа к ним; и появление новых усовершенствованных алгоритмов, способных анализировать данные более «интеллектуальным» способом [2].

Единого определения ИИ не существует, но в широком смысле ИИ – это теория и разработка компьютерных систем, способных выполнять задачи, которые обычно требуют человеческого интеллекта. Отсутствие консенсуса в отношении определения можно объяснить, по крайней мере частично, тем фактом, что ИИ – это не технология как таковая, а набор методов, имитирующих поведение человека. Вот некоторые из ключевых методов, актуальных в настоящее время для FS и на которые мы ссылаемся в этой статье:

  1. Машинное обучение.
  2. Глубокое обучение.
  3. Распознавание речи и обработка естественного языка (NLP).
  4. Визуальное распознавание.

Искусственный интеллект предоставляет все больше возможностей, принося много удобства. Но искусственный интеллект скрывает некоторые тревожные проблемы. Например, раскрытие личной информации о конфиденциальности; увеличение разрыва между богатыми и бедными; проблемы загрязнения окружающей среды. Эти проблемы требуют от нас изучения и оценки развития технологии искусственного интеллекта в этическом смысле, исходя из общих интересов человечества. Спецификация технологии искусственного интеллекта и «запретная зона» должны быть четко обрисованными, чтобы развитие технологии искусственного интеллекта приносило реальную пользу.

Искусственный интеллект вступает в общество, где данные уже собираются в больших масштабах, где цифровые продукты, услуги и инфраструктуры предоставляются в основном частными субъектами, и где ведущие разработчики искусственного интеллекта занимают доминирующее положение в глобальной интернет-экономике. Этот контекст неизбежно оказывает серьезное влияние на то, как искусственный интеллект в конечном итоге будет использоваться в обществе, кем и для каких целей.

Таким образом, целью данной работы, можно назвать исследование основных этические вопросов, такие как этика прав человека в области искусственного интеллекта, моральная этика и этика ответственности, изучение причин этих проблем. В завершении, автор попробует предложить контрмеры, которые могут быть использованы для решения выявленных проблем.

В настоящее время система политики несовершенна, а механизм надзора отсутствует. Развитие искусственного интеллекта неизбежно сопряжено с следующими проблемами. В наиболее общем виде, их можно разделить на три типа:

  1. Этика прав человека. Из-за неравномерного развития стран и регионов люди имеют неравные возможности доступа и использования искусственного интеллекта. Этика прав человека подчеркивает равенство, свободу и всестороннее развитие людей, в то время как неравное развитие технологий серьезно нарушает этику прав человека.
  2. Моральная этика. Стабильность человеческого общества зависит от ограничений моральной системы. Что касается этики искусственного интеллекта, Алан Ф. Т. Уинфилд [3] связывает несколько элементов, таких как этика, регулирование, инновации и участие общественности, в качестве основы для руководства этическим управлением искусственным интеллектом. В то же время наша моральная система постоянно развивается вместе с развитием общества. Джоанна Дж. Брайсон указала, что нельзя просто судить о том, следует ли наделять искусственный интеллект моралью и способностями. Следовательно, статус искусственного интеллекта в обществе – это нормативный вопрос [1, p. 15-26].
  3. Информационная этика. Информационная этика относится к этическим требованиям, связанным с разработкой информации, распространением информации, управлением информацией и использованием информации. В настоящее время большие данные являются основным инструментом развития искусственного интеллекта, что неизбежно вызывает риск утечки личной информации.
  4. Этика предрассудков. Искусственный интеллект опирается на объективные данные и рациональные алгоритмы на поверхности, но на самом деле он дает предвзятые результаты.
  5. Этика ответственности. Этическая проблема ответственности – это цель, средства и последствия всестороннего рассмотрения поведения ответственного субъекта. Это общий этический анализ и исследование отношений ответственности, распределения ответственности и принципа ответственности в современном обществе [3].
  6. Экологическая этика. Технология искусственного интеллекта в основном опирается на чрезвычайно высокопроизводительную аппаратную память, быстрые логические алгоритмы и большой объем анализа данных. Использование искусственного интеллекта требует машин с большим энергопотреблением.

Искусственный интеллект порождает этические проблемы. Мы предполагаем, что это может быть связано со следующими основными причинами:

  1. Технические ограничения. В настоящее время искусственный интеллект играет важную роль в цифровой области вычислений, анализа и принятия решений, но его трудно играть роль в области выражения эмоций. Поскольку искусственный интеллект в основном полагается на алгоритмы для обучения и суждений, в алгоритм трудно внедрить человеческие ценности и моральные ценности.
  2. Отсутствие этических принципов. С непрерывным развитием искусственного интеллекта наше понимание людей становится все более и более материализованным, а границы между людьми и машинами становятся все более и более размытыми. Нам нужно подумать о том, как быть с отношениями между машинами и нами, и сформулировать этические принципы и правила искусственного интеллекта.
  3. Создание необоснованной политики. На политическом уровне искусственный интеллект в основном сосредоточен на техническом и экономическом уровне. Лишь немногие ученые в области философии и социальных наук начали обращать внимание на этические и социальные проблемы, связанные с искусственным интеллектом. Однако эти дискуссии не вошли в горизонт государственной политики, и им не хватало целостного осмысления и обсуждения. Поэтому отсутствие соответствующей политики и политики в обществе вызвало ряд этических проблем.
  4. Несовершенный механизм контроля. Хотя технологии искусственного интеллекта сегодня находятся в эпоху бурного развития науки и техники, эффективного механизма надзора за надзором не существует. Например, источники информации людей все больше зависят от интеллектуальных машин, и в этой ассимиляции и зависимости от пути усиливаются предубеждения, что приводит к усилению предвзятости.

Этические вопросы технологии искусственного интеллекта привлекают все большее внимание. Множество исследователей предлагают и разрабатывают решения, которые могут в перспективе способствовать защите основных интересов людей и способствовать здоровому развитию общества. Среди них, можно выделить четыре основных направления стратегии:

  1. Укреплять международное сотрудничество. Стремительное развитие технологий искусственного интеллекта имеет большой потенциал, но все еще остается много технических дефектов и узких мест. Основная причина заключается в том, что в международном сообществе отсутствует связь и сотрудничество между технологиями искусственного интеллекта, что делает людей с большими различиями в уровне технологий искусственного интеллекта между странами, и этические проблемы искусственного интеллекта становятся все более заметными.

Всеобъемлющая задача международного позиционирования – это все, что касается места и роли страны на международной арене. Это включает в себя то, как она взаимодействует с другими странами, а также с негосударственными субъектами, такими как компании и преступные организации. Существует несколько международных арен, где страны могут и должны занимать определенную позицию по таким вопросам, как регулирование искусственного интеллекта и стандартизация, а также проблемы, которые все они влекут за собой.

Мы также видим, как явления, в которых ИИ играет определенную роль, такие как информационная война и цифровая диктатура, вызывают подлинную озабоченность. Они представляют угрозу свободе во всем мире, а также национальной безопасности отдельных стран. Важно инвестировать в реагирование на эти явления и формулировать ответы на них. Два вопроса конкурентоспособности и международного сотрудничества явно переплетены в контексте искусственного интеллекта. В этой связи важна «дипломатия» искусственного интеллекта и повышения осведомленности о рисках, которые технология представляет для национальной безопасности [5].

  1. Создание разумной государственной политики. На уровне государственной политики политика развития и применения искусственного интеллекта должна ставить людей в центр, удовлетворять потребности всестороннего развития людей и способствовать справедливому и устойчивому развитию общества. Правительству необходимо создать специальные фонды для поддержки университетов и научно-исследовательских институтов в проведении этических исследований передовых технологий, таких как искусственный интеллект.

Роль правительства в регулировании ИИ неизбежно возрастет по мере того, как технология получит более широкое распространение и возникнут ситуации, требующие вмешательства. Решающее значение имеет время государственного вмешательства. Если ждать слишком долго, искусственный интеллект может внедриться способами, которые несовместимы с гражданскими ценностями или не в состоянии служить им. Такая системная технология, как искусственный интеллект, требует законодательной повестки дня, которая затрагивает не только вопросы, связанные с технологией и ее использованием, но и ее более широкие социальные последствия. Массовая слежка, крайняя зависимость от частных субъектов и концентрация власти представляют угрозу гражданским ценностям в контексте социальной интеграции ИИ и, следовательно, требуют срочного вмешательства правительства.

Мы находимся на очень ранней стадии процесса социальной интеграции ИИ. Поэтому легко можно предположить, что правительству следует воздержаться от вмешательства на данном этапе и вместо этого следить за развитием событий до тех пор, пока "не настанет подходящее время’. Однако такая политика нежелательна из-за значительного влияния, которое, вероятно, окажет искусственный интеллект. Если правительство хочет сохранить свою способность к значительному и эффективному вмешательству сейчас и в долгосрочной перспективе, особенно с целью защиты гражданских ценностей, оно должно быть бдительным и начать готовиться уже сейчас к более решительной роли, которую ему неизбежно придется сыграть в свое время.

  1. Построение этики искусственного интеллекта. На социальном уровне университеты и научно-исследовательские институты проводят перспективные исследования в области научной и технической этики, обеспечивая теоретическую поддержку для установления соответствующих норм и систем. Компании с искусственным интеллектом должны включить этику в свою систему корпоративной социальной ответственности; инвестиционные учреждения должны включать этические вопросы в структуру ESG (окружающая среда, социальная сеть и управление), чтобы направлять компании в ответственной разработке продуктов искусственного интеллекта.

Такие концепции, как "человекоцентричный" ИИ и этичный, гуманный и ответственный ИИ, упоминаются все чаще, что указывает на растущий интерес к взаимосвязи между приложениями искусственного интеллекта и человеческим обществом и ценностями. Эта тенденция также отражается в распространении публикаций об искусственном интеллекте и этике.Также было создано 85 научно-исследовательских институтов, специально занимающихся изучением последствий искусственного интеллекта для общества. Даже в Кремниевой долине, центре технологического развития искусственного интеллекта, Стэнфордский институт искусственного интеллекта, ориентированного на человека, был создан специально для изучения влияния технологии на человека и общество.

Институт AI Now, также расположенный в США, является, пожалуй, наиболее ярким примером исследовательского центра, занимающегося влиянием искусственного интеллекта на общество. Его ежегодные отчеты служат важными катализаторами дискуссий во всем мире. С момента первого появления в 2016 году сообщения AI Now становятся все более ясными: первоначально призвав к исследованию влияния искусственного интеллекта, институт перешел к утверждению, что определенные приложения должны быть запрещены, иногда, по крайней мере, временно, и к установлению конкретных требований к ответственному использованию технологии.

Таким образом, основные этические проблемы искусственного интеллекта, причины и возможные варианты их решения можно объединить в структуру, как на рис. 1.

1

Рисунок 1. Основные этические проблемы искусственного интеллекта, причины и решения.

Никто не знает, как будет развиваться искусственный интеллект в будущем. В значительной степени то, как искусственный интеллект влияет на общество, будет зависеть от того, как вышеупомянутые проблемы, будут рассмотрены различными субъектами и решены ими. У всех них есть свои собственные интересы и ценности, а также свои собственные средства защиты и продвижения своих интересов. Иногда они совпадают, например, когда группы давления и средства массовой информации работают вместе, чтобы поддержать граждан, подвергшихся мошенничеству, или, когда правительства и компании сотрудничают, чтобы повысить потенциал страны в области заработка. Но столкновения тоже случаются. Например, существует напряженность между учеными, подчеркивающими открытость исследований, и предприятиями, защищающими коммерчески конфиденциальную информацию [4]. Частные лица и правительства также могут столкнуться с разногласиями по поводу использования технологий видеонаблюдения, когда трудно совместить безопасность и неприкосновенность частной жизни.

Обеспечение того, чтобы использование искусственного интеллекта соответствовало основным ценностям общества, требует сотрудничества, переговоров, ознакомления, дебатов и конфликтов. Другими словами, включение этого в нашу жизнь повлечет за собой сложный процесс социальной интеграции. Каков наилучший способ направлять этот процесс и влиять на него там, где это уместно?

Через сто лет мы будем воспринимать искусственный интеллект как нечто само собой разумеющееся точно так же, как сейчас мы воспринимаем автомобиль как нечто само собой разумеющееся. Мы пока не можем себе представить, каким это будет мир, но как только мы окажемся там, будет так же трудно оглянуться назад на столетие и представить, как искусственный интеллект зародился в лаборатории, а затем потребовались десятилетия, чтобы распространиться по всему обществу. Сейчас мы находимся на пороге этого процесса. И для того, чтобы этот процесс происходил без проблем, решение этических вопросов ИИ имеет первоочередное значение.

В заключение, стоит сказать, что в текущем развитии люди не могут делать точные суждения о влиянии развития искусственного интеллекта. Применение новых технологий должно управляться и регулироваться. Для развития ИИ необходимо, чтобы соответствующие национальные департаменты взяли на себя инициативу, хорошо поработали над технологией искусственного интеллекта, проанализировали этику продукта и сделали моральные предпосылки искусственного интеллекта с технического уровня. На этом фоне важно, чтобы общество было осведомлено о различных проблемах, связанных с регулированием искусственного интеллекта. Не только государство, но и другие субъекты, также должны взять на себя обязательства по структурным инвестициям в сбор и сопоставление сигналов относительно возможностей и рисков, связанных с внедрением искусственного интеллекта в общество, в противном случае его способность вносить соответствующие изменения или определять новые правила – или делать это своевременно – будет серьезно ограничена. Помимо проблем с регуляцией, необходимо будет решить проблемы, связанные не только с технологией как таковой, но и со степенью ее использования и масштабом ее последствий. Что, в свою очередь, потребует активного управления более широкой цифровой средой обитания, в которую в конечном счете будет встроен искусственный интеллект. Прецеденты такого рода подхода ранее были созданы в других областях, где события коренным образом повлияли на общество и реорганизовали его. Поэтому в предстоящий период общество должно сосредоточиться на объединении отдельных в настоящее время «кейсов» и направлений развития таким образом, чтобы они рассматривались как элементы более комплексной задачи.

Список литературы

  1. Bryson, J. J. Patience is not a virtue: the design of intelligent systems and systems of ethics. Ethics and Information Technology, 20(1), 2018, p. 15-26. URL: https://doi.org/10.1007/s10676-018-9448-6 (дата обращения: 11.06.2023).
  2. Demystifying artificial intelligence [Электронный ресурс] // URL: https://www2.deloitte.com/insights/us/en/focus/cognitive-technologies/what-is-cognitive-technology.html (дата обращения: 30.05.2023).
  3. Jonas, H. The imperative of responsibility: In search of an ethics for the technological age // Chicago : University of Chicago Press, 1984.
  4. Kuchumov A.V., Pecheritsa E.V. Digital transformation of entrepreneurship: national and international studies // Экономический вектор. 2023. № 1 (32). С. 103-108.
  5. Sheikh, H., Prins, C., Schrijvers, E. AI as a System Technology. In: Mission AI. Research for Policy // Springer, 2023.
  6. Winfield Alan F. T. and Jirotka Marina 2018Ethical governance is essential to building trust in robotics and artificial intelligence systems // Phil. Trans. R. Soc. A., 2018 URL: https://doi.org/10.1098/rsta.2018.0085 (дата обращения: 01.06.2023).

Интересная статья? Поделись ей с другими: