Человеческий фактор vs искусственный интеллект

uri_

Новичок
Однако тенденции в мире авиации показывают, что и эти действия будет выполнять автоматика. Просто время еще не пришло, хотя по закрылкам и стабилизатору автомат уже работает. Как думаете, зачем?
ЧФ задолбал уже всех во всем мире. И вполне естественно, что, по мере развития искусственного интеллекта, так оно и будет. Как это ни обидно будет признать последним могиканам в кокпитах
 
Реклама
ЧФ задолбал уже всех во всем мире. И вполне естественно, что, по мере развития искусственного интеллекта, так оно и будет. Как это ни обидно будет признать последним могиканам в кокпитах
Как только в левое кресло будет посажен ИИ, я сразу и навсегда откажусь от авиаперелетов.
Автоматизация труда летчиков - это, наверно, благо... при условии, что они будут учиться не только кнопки нажимать.
Но автоматика в критических условиях - это будет вероятность 50/50, что катастрофа случится.

#автоудаление
 
> Как только в левое кресло будет посажен ИИ, я сразу и навсегда откажусь от авиаперелетов.
Будете ходить пешком?
Если найдется некоторое количество (хотя бы трое-четверо) желающих обсудить данную проблему, спокойно и аргументированно, в отдельно созданной ветке - я готов принять в обсуждении участие. Здесь и сейчас это - офф-топик.
 
ЧФ задолбал уже всех во всем мире. И вполне естественно, что, по мере развития искусственного интеллекта, так оно и будет. Как это ни обидно будет признать последним могиканам в кокпитах
Ну во-первых это очевидно. Что влияние ЧФ с каждым поколением минимизируется.
Во вторых нужно сначала сделать.
В третьих, всегда будет нужен тот, который нажмёт главную кнопку.
 
Для начала, я бы разделил автоматику вообще и искусственный интеллект в частности.

Автоматика - это система, осуществляющая управляющее воздействие на внешний мир ради достижения какой-то заложенной в систему цели. Автоматы могут иметь (а могут и не иметь) датчики, позволяющие получать информацию о внешнем мире и на её основании корректировать управляющее воздействие.

Интеллект - это способность находить приемлемые решения плохо поставленным задачам. Плохо поставленные задачи - это задачи, которые либо вообще не имеют формального решения, либо их формальное решение вычислительно недостижимо. К этой категории задач относятся, в частности, многие задачи распознавания (из-за отсутствия строгого формального определения множества вариантов входных данных, характеризующих состояние, которое надо распознать) и оптимизации (из-за NP-трудности проблемы).

Искусственный интеллект - это, соответственно, искусственная система, созданная для решения одной или нескольких таких задач.

Типичная задача оптимизации, актуальная в том числе и для авиации - это навигация.

Типичная задача распознавания, актуальная в том числе и для авиации - это распознавание отказов.
 
Отличительная особенность ИИ - обучаемость. В авиации он скорее нужен не для управления, а для принятия решений на основе опыта, накопленного за все время эксплуатации. Здесь система может быть существенно интереснее отдельных пилотов с их индивидуально накопленным опытом. В идеале это некое общее облако, в которое сливаются данные абсолютно всех полетов и возникшие проблемы. И в критической ситуации запрос в это облако и принятие решения.

Кстати, если для распознавания отказа нужна хотя бы сотня факторов, человек эту задачу уже не решит.

Статистика по беспилотным автомобилям уже говорит, что в аварии они попадают реже, чем люди.
 
Благодаря СМИ сильно искажено понятие "Человеческий фактор". Если человек не способен в темноте разглядеть что-либо, не может одновременно нажать пять кнопок в разных местах кабины, если он не может одновременно видеть показания на центральном пульте и верхнем щитке, если он не может одновременно передавать данные диспетчеру и давать команду напарнику, то это и есть человеческий фактор. Эти особенности человеческого организма компенсирует автоматика и эргономика. А если он видит показания и тупит, если "забивает" на изученные правила, если ему не преподали необходимые знания, то это разгильдяйство, профнепригодность обученного и обучавшего, а никак не человеческий фактор. Замените человека автоматикой, то распиз...во изготовителя или эксплуатанта изделия приведет к таким же последствиям, как посадили бы распи...дяя в кресло пилота. При этом опять будут мусолить "человеческий фактор". Ну и в авиакомпаниях продолжают плясать под дудку непрофессионализма Росавиации, когда по результатам событий продолжают выдавать директивы лозунгами "усилить, улучшить, углубить, законспектировать..." вместо конкретных отработок процедур, где допущена ошибка. И профотбор осуществляют по принципу "жрал протухшую конину пять лет или нет".
 
То, что мы называем ЧФ, по-английски называется метко хлестко - Human Error
 
Скопирую сюда, ибо релевантно:

И пилотов, и автоматику можно проверять на тренажёрах. Но:
1. Автоматику проверять проще. У автоматики неограниченное количество свободного времени, и её поведение при одинаковых входных параметрах надёжнее воспроизводится. Для автоматики возможно организовать полноценное регрессионное тестирование, для пилотов нет.
2. Ошибки автоматики устраняются один раз на всех самолётах типа (а то и между типами). Ошибки пилотов устраняются индивидуально, а то и не устраняются вовсе, поскольку оказываются на уровне безусловных рефлексов.

Автоматику, выводящую самолёт на пикирование при неисправном датчике, можно:
протестировать,
исправить,
прогнать через предыдущие регрессионные тесты для проверки, что исправление ничего не сломало,
обновить на всех самолётах типа и
добавить новый тест в систему регрессионного тестирования.

С пилотами так не получится. Какие-то аналоги есть (тренинги, бюллетени, исправление эксплуатационной документации), но они менее всеобъемлющи и менее надёжны.
 
Реклама
В идеале это некое общее облако, в которое сливаются данные абсолютно всех полетов и возникшие проблемы. И в критической ситуации запрос в это облако и принятие решения.
Тогда критической ситуацией будет являться сам факт невозможности обращения в облако - антенну молнией поразило, еще какая-нибудь беда приключилась...
В общем, облако - не тот вариант, как мне кажется. Скорее, правильное направление - это максимальная формализация всех процессов, чтобы поиск решения был стандартизирован, система была децентрализована, а принятие решения было в максимальной степени автономно.
Обновление дерева решений должно производиться не в критической ситуации, а по графику, для всех самолетов единомоментно.
 
Да и неструктурированное "облако", одновременно учащееся и раздающее команды - это не совсем правильная абстракция. В данном случае подход к обучению такой:

1. Собрать новый опыт;
2. Дообучить новую версию систему;
3. Протестировать на входных данных, не входящих в программу обучения;
4. И только тогда уже новую версию системы отправить в эксплуатацию.
 
Тогда критической ситуацией будет являться сам факт невозможности обращения в облако - антенну молнией поразило,

Всегда можно предусмотреть автономный вариант работы - по тем мощностям, которые есть на борту. Хотя резервировать систему связи можно сколько угодно. Не помню случаев, чтобы на самолетах радиосвязь отказывала.
 
Хотя резервировать систему связи можно сколько угодно. Не помню случаев, чтобы на самолетах радиосвязь отказывала.
Сейчас связь не настолько критична. А так она может отказать от перегрузки эфира (например, в результате какого-то неожиданного события в крупном аэропорту) или даже от постановщика радиопомех.
 
Илон Маск планирует запустить кучу спутников для покрытия интернетом всей планеты. Данные спутники в том числе могут быть использованы для беспилотной авиации, на мой взгляд. Но вообще, как человек хорошо знакомый с автоматизацией (в моем случае с промышленной), и зная как можно резервировать узлы, как строить алгоритмы отказоустойчивости и прочего, я бы не испугался лететь на БПЛА. Разумеется с условием, что всё это будет долго и тщательно оттестировано и отлажено в сфере грузовых авиаперевозок, например. Успехи в строительстве БПЛА для военных целей дают надежду, что грузовая беспилотная авиация не за горами. А за ней и пассажирская.
 
я бы не испугался лететь на БПЛА. Разумеется с условием, что всё это будет долго и тщательно оттестировано и отлажено в сфере грузовых авиаперевозок, например.
Тогда у нас не останется выбора, поскольку механизм обучения новых пилотов для пасажироперевозок в "нормальных" странах будет разрушен и рынок заставит их перейти на беспилотники.

Ну, если не закукливаться, конечно.
 
А так она может отказать от перегрузки эфира (например, в результате какого-то неожиданного события в крупном аэропорту)

Пока будут пользоваться технологиями из прошлого века, конечно такая вероятность есть. На самом деле, одна команда диспетчера по современным каналам передается за миллисекунды. При этом есть способы повышения надежности (можно хоть 100 раз команду передать), подтверждения приема (что пакет пришел целым, пилот его точно увидел и нет проблем с языковыми барьерами и недопониманием), идентификации и аутентификации (никто неавторизованный не сможет взять передатчик, сказать что-то в эфир и сбить остальных с толку).
 
Пока будут пользоваться технологиями из прошлого века, конечно такая вероятность есть. На самом деле, одна команда диспетчера по современным каналам передается за миллисекунды.
При чём здесь команда диспетчера?

При этом есть способы повышения надежности (можно хоть 100 раз команду передать), подтверждения приема (что пакет пришел целым, пилот его точно увидел и нет проблем с языковыми барьерами и недопониманием), идентификации и аутентификации (никто неавторизованный не сможет взять передатчик, сказать что-то в эфир и сбить остальных с толку).
Вам напомнить про случай, как у Интела утёк мастер-ключ для HDCP?
 
Реклама
Нет смысла :) Я знаю эту тему отлично. И знаю, что это никак не относится к обсуждаемой теме.
Относится. Бортовая система должна относиться с подозрением к командам, даже если они подписаны валидной подписью. А это уже ИИ на борту.
 
Назад