Катастрофа Boeing 787-8 (VT-ANB) Air India в Ахмадабаде 12.06.2025

трёхчленный экипаж,
Причём, всё управление на пульт БИ. Пилотам оставить органы управления, но проводочки от них отрезать и заглушить. Пусть сидят развлекаются, за пимпочки разные дёргают, лишь бы не мешали.
 
Реклама
Причём, всё управление на пульт БИ. Пилотам оставить органы управления, но проводочки от них отрезать и заглушить. Пусть сидят развлекаются, за пимпочки разные дёргают, лишь бы не мешали.
А где гарантия что БИ не вырубит двигатели?
 
Пока в компьютер не заложен инстинкт самосохранения, и он запросто может на основании недостоверных показаний датчиков учинить CFIT - ну его нафиг. Вероятность того, что в кабине окажется кожаный суицидник, в разы меньше.
Зачем суицидник? Человек просто ошибётся, накосячит в стрессе и будет классический "человеческий" CFIT, каковым он до сего дня почти всегда и являлся.
А инстинкт самосохранения может вполне перерасти в страх за свою жизнь и панику. А чтобы не перерос, надо прикладывать к этому усилия, бороться со стрессом, что отвлекает на себя значительную часть ресурсов.
 

By pilots in control of whole flight​

Crash date
Flown
by
Flight
Type
FlightFatalitiesTheoriesAircraftRefs
Mar 27,
1972
PilotGeneral
aviation
Stolen
aircraft
1 (pilot)Timofei Shovkunov crashed an Aeroflot Antonov An-2
into his own apartment in Voroshilovgrad.
He was the only casualty.
[11][12]
Sep 26,
1976
PilotGeneral
aviation
Stolen
aircraft
5
(pilot,
4 on the
ground)
Vladimir Serkov attempted to pilot his Antonov An-2
plane into his ex-wife's parents' apartment in
Novosibirsk where she and his two-year-old son were
visiting; 4 residents were killed (his wife survived).
See An-2 incidents.
[14][15]
Jul 13,
1994
PilotMilitaryStolen
aircraft
1 A Russian air force engineer stole an Antonov An-26
at Kubinka air base outside Moscow.
He circled the aircraft until it ran out of fuel and crashed.
[27]
 
Адепты полностью автономного компьютерного управления часто, мне кажется, исповедуют максиму "всё можно предусмотреть и запрограммировать". Но это не так (как программист говорю 🙂). А раз не так, то на всякий непредвиденный случай в управление должен быть включён некий свободный от жёстких алгоритмических рамок субъект, способный спонтанно реагировать на непредвиденные ситуации. Он, в принципе, тоже может быть искусственным (ИИ) или же человеком. И того, и того надо тренировать, чтобы он смог таковым стать. Человек ведь тоже справляется с непредвиденными ситуациями только будучи натренированным на некоем наборе стандартных критических ситуаций (то же тренажёр) плюс собственном приобретённом опыте (он, кстати, может быть и ошибочным!). Так ведь и ИИ можно натренировать. Собственно, так он сегодня и обучается. И плюс его в том, что ему эти тренировки освежать не надо - он не забывает, а к тому же ещё и не подвержен стрессу.
 
Пока в компьютер не заложен инстинкт самосохранения, и он запросто может на основании недостоверных показаний датчиков учинить CFIT - ну его нафиг. Вероятность того, что в кабине окажется кожаный суицидник, в разы меньше.
Пусть на компьютерах сначала летает транспортная авиация, делов-то. Как наберётся статистика, все сомнения в надёжности отпадут.
 
на всякий непредвиденный случай в управление должен быть включён некий свободный от жёстких алгоритмических рамок субъект, способный спонтанно реагировать на непредвиденные ситуации
А теперь смотрим на реальные сложные программные системы типа ОС и видим, что все возможности "спонтанной реакции свободного субъекта" сводятся к перезагрузке.
 
Реклама
А теперь смотрим на реальные сложные программные системы типа ОС и видим, что все возможности "спонтанной реакции свободного субъекта" сводятся к перезагрузке.
Не проблема совсем. Управляющий компьютер не один. Что-то в районе десятка. Можно периодически перезагружать их по одному. Превентивно, так сказать.
 
ИИ пришел в авиацию и это факт и дальше будет интегрироваться. Нейросети нового поколения обучаются по принципу подкрепления, то есть алгоритмы использования прошлого опыта действий человека это вчерашний день, обучение нейросетей идёт с нуля, как ребенок учится ходить, ему не читают лекции по физике движения , так и ИИ ставится задача и он выполняет ее наиболее эффективным оптимальным образом через самообучение с пробами и ошибками, отсюда разработки по беспилотной авиации и т.д.
Термин компьютер используется для сглаживания углов, т.к . ИИ вызывает иную реакцию))
 
Пусть на компьютерах сначала летает транспортная авиация, делов-то. Как наберётся статистика, все сомнения в надёжности отпадут.
Студентам медколледжа было все равно, пассажирский самолет на них упал или транспортный.

И при нынешнем уровне катастрофт для достижения достоверного статистического результата нужно очень много лет.
 
Причём, всё управление на пульт БИ. Пилотам оставить органы управления, но проводочки от них отрезать и заглушить. Пусть сидят развлекаются, за пимпочки разные дёргают, лишь бы не мешали.
Идеальная компоновка кабины с БИ - Ил-86. Ничего ни у кого убирать не надо - надо грамотно проектировать кабины с эргономической точки зрения. Важен перекрёстный контроль действий членов экипажа.
 
Идеальная компоновка кабины с БИ - Ил-86. Ничего ни у кого убирать не надо - надо грамотно проектировать кабины с эргономической точки зрения. Важен перекрёстный контроль действий членов экипажа.
Или пилот когда изменяет конфигурацию, или двигатели в полете выключает, или ещё что-то важное. Предупреждает напарника голосом. В обсуждаемом случае капитан мог бы сказать: - Отказ двух двигателей. Выключаю двигатели. Включаю двигатели, перезапуск. Но регистратор записал другой диалог.
 
А теперь смотрим на реальные сложные программные системы типа ОС и видим, что все возможности "спонтанной реакции свободного субъекта" сводятся к перезагрузке.
Мне кажется, здесь больше подойдёт следующая аналогия: бухгалтерская программа может на основании имеющихся валидных данных многие отчёты составлять автоматически, но если случай нестандартный, то пользователь должен ручками ей помочь.
Основная же моя мысль была такая: что человек, что ИИ изначально не могут управлять самолётом, но и того, и другого можно научить, причём способы обучения довольно сходные: закладка теоретических знаний плюс тренировка умений и навыков.
Однако же ИИ можно тщательно и качественно натренировать в одном экземпляре, а потом растиражировать. И если достигнуть высокого уровня его квалификации, то этот уровень будет везде, в каждой кабине и не будет зависеть от психологических и когнитивных особенностей того или иного индивидуума. Ну или, допустим, тренировать модель ИИ под конкретный тип ВС с учётом его особенностей. Такая растиражированная модель может впоследствии получать апдейты случись какие новые прецеденты, не предусмотренные в рамках обучения. Ну, т.е. то же самое, что и сейчас с людьми (разбор тех или иных АП с соответствующими выводами).
 
Основная же моя мысль была такая: что человек, что ИИ изначально не могут управлять самолётом, но и того, и того можно научить, причём способы обучения довольно сходные: закладка теоретических знаний плюс тренировка умений и навыков.
Программу управления составить не получится?
 
Мне кажется, здесь больше подойдёт следующая аналогия: бухгалтерская программа может на основании имеющихся валидных данных многие отчёты составлять автоматически, но если случай нестандартный, то пользователь должен ручками ей помочь.
Основная же моя мысль была такая: что человек, что ИИ изначально не могут управлять самолётом, но и того, и другого можно научить, причём способы обучения довольно сходные: закладка теоретических знаний плюс тренировка умений и навыков.
Однако же ИИ можно тщательно и качественно натренировать в одном экземпляре, а потом растиражировать. И если достигнуть высокого уровня его квалификации, то этот уровень будет везде, в каждой кабине и не будет зависеть от психологических и когнитивных особенностей того или иного индивидуума. Ну или, допустим, тренировать модель ИИ под конкретный тип ВС с учётом его особенностей. Такая растиражированная модель может впоследствии получать апдейты случись какие новые прецеденты, не предусмотренные в рамках обучения. Ну, т.е. то же самое, что и сейчас с людьми (разбор тех или иных АП с соответствующими выводами).

А как насчет "кувшина", в котором этот "старик-Хоттабыч" сидит? Его тоже ИИ должен создавать? Ну, чтобы совсем без ЧФ обойтись... Так ведь не получится!
 
Программу управления составить не получится?
Мне кажется, здесь не только и не столько в управлении дело, сколько в принятии решений. Именно это на данный момент пока прерогатива человека. Управление и сейчас достаточно хорошо запрограммировано.
Человек же принимает решения, основываясь на том, чему его научили, плюс на собственном опыте. Так это и ИИ под силу, причём опыт ИИ можно "очищать" от всяких вредных привычек ежели таковые посмеют сформироваться (пресловутое подныривание под глиссаду и пр.). Ну, или же изначально поставить им заслон в виде соответствующих чётких директив.
Т.е. речь о полноценном искусственном пилоте, а не только об управлении.
 
Реклама
А как насчет "кувшина", в котором этот "старик-Хоттабыч" сидит? Его тоже ИИ должен создавать? Ну, чтобы совсем без ЧФ обойтись... Так ведь не получится!
Искусственный пилот будет таким же результатом обучения, как и нынешний человеческий, только без присущих человеку недостатков. Это не означает, что он будет совершенным, но, по крайней мере, вся "психология", которая и есть ЧФ, мешать не будет.
А обучать изначально, естественно, будут люди - больше некому 🙂. Ну, а в будущем, возможно, ИИ будет обучать ИИ, почему бы и нет.
 
Назад