Катастрофа Boeing 787-8 (VT-ANB) Air India в Ахмадабаде 12.06.2025

трёхчленный экипаж,
Причём, всё управление на пульт БИ. Пилотам оставить органы управления, но проводочки от них отрезать и заглушить. Пусть сидят развлекаются, за пимпочки разные дёргают, лишь бы не мешали.
 
А где гарантия что БИ не вырубит двигатели?
 
Зачем суицидник? Человек просто ошибётся, накосячит в стрессе и будет классический "человеческий" CFIT, каковым он до сего дня почти всегда и являлся.
А инстинкт самосохранения может вполне перерасти в страх за свою жизнь и панику. А чтобы не перерос, надо прикладывать к этому усилия, бороться со стрессом, что отвлекает на себя значительную часть ресурсов.
 

By pilots in control of whole flight​

Crash date
Flown
by
Flight
Type
FlightFatalitiesTheoriesAircraftRefs
Mar 27,
1972
PilotGeneral
aviation
Stolen
aircraft
1 (pilot)Timofei Shovkunov crashed an Aeroflot Antonov An-2
into his own apartment in Voroshilovgrad.
He was the only casualty.
[11][12]
Sep 26,
1976
PilotGeneral
aviation
Stolen
aircraft
5
(pilot,
4 on the
ground)
Vladimir Serkov attempted to pilot his Antonov An-2
plane into his ex-wife's parents' apartment in
Novosibirsk where she and his two-year-old son were
visiting; 4 residents were killed (his wife survived).
See An-2 incidents.
[14][15]
Jul 13,
1994
PilotMilitaryStolen
aircraft
1 A Russian air force engineer stole an Antonov An-26
at Kubinka air base outside Moscow.
He circled the aircraft until it ran out of fuel and crashed.
[27]
 
Адепты полностью автономного компьютерного управления часто, мне кажется, исповедуют максиму "всё можно предусмотреть и запрограммировать". Но это не так (как программист говорю ). А раз не так, то на всякий непредвиденный случай в управление должен быть включён некий свободный от жёстких алгоритмических рамок субъект, способный спонтанно реагировать на непредвиденные ситуации. Он, в принципе, тоже может быть искусственным (ИИ) или же человеком. И того, и того надо тренировать, чтобы он смог таковым стать. Человек ведь тоже справляется с непредвиденными ситуациями только будучи натренированным на некоем наборе стандартных критических ситуаций (то же тренажёр) плюс собственном приобретённом опыте (он, кстати, может быть и ошибочным!). Так ведь и ИИ можно натренировать. Собственно, так он сегодня и обучается. И плюс его в том, что ему эти тренировки освежать не надо - он не забывает, а к тому же ещё и не подвержен стрессу.
 
Пусть на компьютерах сначала летает транспортная авиация, делов-то. Как наберётся статистика, все сомнения в надёжности отпадут.
 
А теперь смотрим на реальные сложные программные системы типа ОС и видим, что все возможности "спонтанной реакции свободного субъекта" сводятся к перезагрузке.
 
Реакции: WWs
Не проблема совсем. Управляющий компьютер не один. Что-то в районе десятка. Можно периодически перезагружать их по одному. Превентивно, так сказать.
 
Термин компьютер используется для сглаживания углов, т.к . ИИ вызывает иную реакцию))
 
Студентам медколледжа было все равно, пассажирский самолет на них упал или транспортный.

И при нынешнем уровне катастроф для достижения достоверного статистического результата нужно очень много лет.
 
Последнее редактирование:
Идеальная компоновка кабины с БИ - Ил-86. Ничего ни у кого убирать не надо - надо грамотно проектировать кабины с эргономической точки зрения. Важен перекрёстный контроль действий членов экипажа.
 
Или пилот когда изменяет конфигурацию, или двигатели в полете выключает, или ещё что-то важное. Предупреждает напарника голосом. В обсуждаемом случае капитан мог бы сказать: - Отказ двух двигателей. Выключаю двигатели. Включаю двигатели, перезапуск. Но регистратор записал другой диалог.
 
Мне кажется, здесь больше подойдёт следующая аналогия: бухгалтерская программа может на основании имеющихся валидных данных многие отчёты составлять автоматически, но если случай нестандартный, то пользователь должен ручками ей помочь.
Основная же моя мысль была такая: что человек, что ИИ изначально не могут управлять самолётом, но и того, и другого можно научить, причём способы обучения довольно сходные: закладка теоретических знаний плюс тренировка умений и навыков.
Однако же ИИ можно тщательно и качественно натренировать в одном экземпляре, а потом растиражировать. И если достигнуть высокого уровня его квалификации, то этот уровень будет везде, в каждой кабине и не будет зависеть от психологических и когнитивных особенностей того или иного индивидуума. Ну или, допустим, тренировать модель ИИ под конкретный тип ВС с учётом его особенностей. Такая растиражированная модель может впоследствии получать апдейты случись какие новые прецеденты, не предусмотренные в рамках обучения. Ну, т.е. то же самое, что и сейчас с людьми (разбор тех или иных АП с соответствующими выводами).
 
Программу управления составить не получится?
 

А как насчет "кувшина", в котором этот "старик-Хоттабыч" сидит? Его тоже ИИ должен создавать? Ну, чтобы совсем без ЧФ обойтись... Так ведь не получится!
 
Программу управления составить не получится?
Мне кажется, здесь не только и не столько в управлении дело, сколько в принятии решений. Именно это на данный момент пока прерогатива человека. Управление и сейчас достаточно хорошо запрограммировано.
Человек же принимает решения, основываясь на том, чему его научили, плюс на собственном опыте. Так это и ИИ под силу, причём опыт ИИ можно "очищать" от всяких вредных привычек ежели таковые посмеют сформироваться (пресловутое подныривание под глиссаду и пр.). Ну, или же изначально поставить им заслон в виде соответствующих чётких директив.
Т.е. речь о полноценном искусственном пилоте, а не только об управлении.
 
Искусственный пилот будет таким же результатом обучения, как и нынешний человеческий, только без присущих человеку недостатков. Это не означает, что он будет совершенным, но, по крайней мере, вся "психология", которая и есть ЧФ, мешать не будет.
А обучать изначально, естественно, будут люди - больше некому . Ну, а в будущем, возможно, ИИ будет обучать ИИ, почему бы и нет.