Новости

А.Ступин: “Этика ИИ ― ответственность и прозрачность”

Интервью с победителями конкурса творческих проектов Intel® AI for Youth

“Технологии искусственного интеллекта для каждого”


Андрей Анатольевич Ступин, преподаватель Центра компетенций обучающих программ Intel на базе ФГБОУ ВО “Новосибирский государственный педагогический университет”, стал победителем на II Конкурсе творческих проектов Intel® AI for Youth “Технологии искусственного интеллекта для каждого” в номинации “AI Этика”. 
В ходе выполнения кейса  “Этика и искусственный интеллект в науке о данных” моделируются примеры и выявляются проблемные места использования ИИ. Учащиеся должны понять необходимость введения этических ограничений на решения, принимаемые ИИ, которые могут повлиять на ограничения прав и свобод граждан.

Андрей Анатольевич, как Вы считаете, на какой ступени развитие этики в области ИИ сегодня и каковы ее тенденции?

  • Вопрос этики ИИ обсуждается сегодня на различных профессиональных и административных уровнях. Связано это с тем, что в настоящее время активно  внедряются во все сферы жизни цифровые технологии и технологии ИИ. Сдерживающим фактором их развития является низкий уровень доверия граждан к алгоритмам ИИ и новым технологиям в принципе, а также отсутствие понятных этических рамок в применении ИИ. Поэтому важно разрабатывать нормативно-правовую документацию, регламентирующую взаимодействия в обществе в цифровой среде и в сфере технологий ИИ, где всем участникам этих процессов будет понятна степень ответственности за принятые решения, ошибки, ущерб из-за сбоев. Должны быть обеспечены и регулироваться проблемы надежности, сохранности персональных данных, безопасности.

Готовы ли, на Ваш взгляд, учащиеся следовать нормам и инструкциям в области этики ИИ?

  • Чтобы следовать нормам и инструкциям в сфере нравственности и морали ИИ, их нужно разработать. В данный момент нет готовых ответов. Этика ИИ находится на границах с другими видами прикладной этики, которые могут расширяться и дополняться вместе с развитием технологий. На данный момент можно говорить о том, что этика ИИ связана с инженерной этикой, военной этикой; этикой права; этикой образования; политической этикой; экономической этикой; биомедицинской этикой. Этика ИИ ситуативна по своей природе: в каждой сфере ИИ действуют неодинаковые нравственные ценности и нормы. Важным остается вопрос о приемлемости привычных моральных норм к ИИ, что ставит перед цифровым обществом ряд вопросов: кто должен нести ответственность за решения ИИ? Должен ли быть в поведении ИИ заложен некий моральный алгоритм? И, наконец, самый основной вопрос – допустимо ли технологизировать мораль? Ответов пока нет.

Принятые в 2021 г. документы в этой области - Кодекс этики ИИ (Россия) и рекомендация об этических аспектах искусственного интеллекта ЮНЕСКО - это многостраничные многословные документы. Как с ними лучше знакомить детей? 

  • Чтобы познакомить детей с ролью и содержанием данных документов, требуется разработка серии занятий по этой теме. Методика их построения может быть следующая:

Этап 1. Опережающее тестирование по теме “Кодекс этики ИИ” и вводная беседа с обучающимися.

Этап 2. Деловая игра “Кодекс этики ИИ”,  в результате которой обучающиеся знакомятся с проблематикой по данной теме.

Этап 3. Обобщение и рефлексия в форме беседы и итогового тестирования по теме.

Что посоветуете почитать/изучить коллегам,  интересующимся этой темой?


В списке планируемых образовательных результатов в Вашем конкурсном кейсе написано: умение описать несколько этических проблем в сфере ИИ, связанных с социальной интеграцией, необъективностью ИИ и конфиденциальностью ИИ-технологий. Как это достигается? 

  • В рамках наших занятий ставятся конкретные этические проблемы ИИ, например: 

1) Система медицинской диагностики  ИИ, исходя из симптомов, может поставить диагноз и рекомендовать курс лечения. Возникает проблема: кто  несет ответственность, если врач сделал, как порекомендовала система ИИ, но произошла ошибка в диагнозе? 

2) В банковской сфере  требуется рассмотреть заявку на предоставление кредита.  Возникает проблема: кто  несет ответственность, если специалист банка примет решение на основе решения ИИ?  и пр.

Дети должны предложить варианты решений этих проблем. Роль педагога в данной работе - обобщить варианты ответов, сформулировать пути решения этих проблем. 

На занятиях дети сходятся в одном общем мнении: нельзя перекладывать на “плечи” искусственного интеллекта решения, которые связаны со здоровьем, жизнью, безопасностью людей. Все решения, связанные с жизнедеятельностью человека, должны предварительно проверяться на соответствие этическим нормам. 

Продолжаются ли самостоятельные исследования в области ИИ у учащихся? Какие направления они выбирают? 

  • Сегодня прослеживается большой интерес у всех уровней обучающихся к теме ИИ, в том числе - этики ИИ. Некоторые ребята с большим удовольствием проводят самостоятельные исследования с использованием технологий Intel. Например, очень интересна для детей тематика “Умный дом”. Цель всех  детских проектов по ИИ: сделать  “чудесным место для жизни” (комфортная, экономичная, экологичная окружающая среда; забота о домашних питомцах (вовремя покормить, поиграть); социальный робот-помощник и т.п.). 

Как преподаватель, чему бы Вы хотели научить современных учащихся больше всего?

  • Очень хочется научить детей думать. Вроде бы и банальная вещь, но для этого требуется: 
  • уметь генерировать идеи, 
  • прогнозировать результат на основе наблюдений за привычными действиями людей, 
  • видеть планируемый результат, как уже существующий, и выстраивать под это последовательность задач, 
  • сочетать креативность с самоорганизацией - способность следовать временному плану, 
  • отслеживать эффективность и неэффективность действий,
  • быстро корректировать действия внутри процесса, при этом быть способным уловить идею свою и чужую, дать ей развитие, а не "задавить" управленческими, организаторскими схемами.

Спасибо, Андрей Анатольевич, за беседу. Интересных и полезных занятий!