Темная сторона искусственного интеллекта

Темная сторона искусственного интеллекта

В недавней статье MIT Technology Review повествует о проблеме, связанной с развитием искусственного интеллекта (AI): разработчики этой не всегда полностью понимают, как машина делает тот или иной выбор.

Существует два подхода к развитию AI: в рамках первого, технология должна подчиняться правилам и логике, заложенным разработчиком, а ее код – быть прозрачным для прочтения; второй подход опирается на концепцию «глубокого обучения»: машина наблюдает за человеком и «учится», генерируя собственный алгоритм принятия решений.

Взрывное развитие AI последних лет во многом обусловлено именно вторым подходом. «Глубокое обучение» лежит в основе технологий распознания голоса, идентификации изображений, переводов.

«Обучение» AI открывает новые перспективы в диагностике заболеваний. Так, в больнице Mount Sinai в Нью-Йорке была проведена экспериментальная программа «Глубокий пациент»: при помощи искусственного интеллекта были проанализированы медкарты 700 тыс. пациентов и с высокой точностью выявлены признаки будущих заболеваний.

Проблема второго подхода заключается в том, что генерируемый машиной алгоритм не всегда понятен разработчику, а машина не может сама объяснить, как именно, на основании каких данных она принимает решения.

По мере того как модели AI становятся все сложнее, разработчики все меньше будут понимать этот процесс. И в какой-то момент доверие человека к машине вынужденно будет опираться на слепую веру.

Между тем, военные ведомства США готовы инвестировать миллиарды долларов в технологии AI для развития беспилотных машин, самолетов и для анализа разведданных. Непрозрачность машинных алгоритмов может стать более чем серьезной проблемой для военной отрасли.

 

Источник: The Institute of Modern Russia

Print Friendly
vavicon
При использовании материалов сайта ссылка на «Сибирскую католическую газету» © обязательна