Исчезнет ли профессия пилота в скором будущем

Амбициозно, но похвально. Но кроме программных решений потребуется и переоснащение диспетчерских служб.

Пассажирам в первую очередь нужны дешёвые билеты.
Не сказал бы за всю Одессу...
Те, кому в первую очередь нужны дешевые билеты, ездят в плацкартном вагоне.
Ну а я просто пожелаю программистам полетать на своем беспилотном самолете лет 10, без пассажиров. И без пилотов.
И если за 10 лет не убьются, может быть, что-то пересмотрю в своих убеждениях.
 
А какие предпосылки? Большая война?
Бюрократический конфликт вокруг Тайваня, например.

Ну или нежелание признавать беспилотную авиацию.

Если мы говорим о массовой полностью автономной авиации, оно в любом случае потребуется.

В плацкартном вагоне не так уж и дёшево, если время не бесплатно.

Я вам подскажу, что с чего всё начнётся в пассажироперевозках. С роста их аварийности в США - с пилотами-людьми, потому что пилоты перестанут набирать предшествующий опыт на грузовых перевозках, которые будут полностью автоматизированы.
 
Должен Вам напомнить, что заявление "бессмысленно обсуждать, "что было бы если бы" - сделали именно Вы. На что я Вам и ответил, что, "что было бы, если бы", анализируется всегда согласно вполне официальной процедуре.
Изначальное же мое замечание касательно проблемы "киберпилот vs. живой пилот" было вполне конкретным и заключалось в том, что мы пока не знаем даже на уровне "НФ-гипотезы", как научить киберпилота решать известную уже более полувека в среде интересующихся робототехникой и ИИ "проблему Азимова" (ставшую также известной после выхода фильма "I, Robot" как "проблема "11-46")? Если более развернуто: пока мы не сможем научить киберпилота на уровне практических действий понимать, что жизни людей имеют неодинаковую ценность и что в известных ситуациях он должен принести в жертву именно тех, за кого отвечает (кто на борту) - крупное воздушное или водное транспортное средство киберпилоту доверить будет нельзя. (если только этот киберпилот не будет под непрерывным контролем человека-оператора, команды которого в случае его решения вмешаться в управление - будут иметь абсолютный, безусловный приоритет - но это обессмысливает саму идею киберпилота в том контексте, в коем она обсуждается в данное ветке) ИМХО.
 
И за это тоже. Можете верить, можете не верить, но я имел отношение к "Скниловской трагедии" не только как сделавший нескольких статей и эфиров о ней. Но и "чуть-чуть" более плотное и официальное. И слова, лично сказанные еще по самым свежим следам этому горе-"асу" Верховным Главнокомандующим (мат опускаю): "Наломав эти дрова, ты должен был до конца пытаться хоть как-то смягчить ситуацию. Ты этого не сделал. Поэтому получишь по самой полной." - мне известны из источника такого уровня, достоверность которого я ни в коем случае не могу поставить под сомнение. Тем более, что достоверность данной информации подтверждается и рядом других моментов. Например, что после визита Данилыча в госпиталь к этом "воЕнам" - УПС МО, первоначально "вставшее во гневе праведном на дыбы" после эфира "Проміня", где я прямо обвинил командира экипажа не только в некомпетентности и преступной беспечности, но и в трусости - стала "вдруг" со мной слаще засахаренного липового меда.
 
Реакции: 2014
"Даже как-то странно", что Вы не понимаете: если СПАО не позволят научить чему то машину на данном этапе НТП - она этому НЕ научится. Можно вбухать лярд, можно пригрозить (и даже исполнить угрозу) всех медноголовых уволить нафиг - не поможет. Американцы проходили это на рубеже 50-х/60-х - вольем в 20 раз больше средства, выпустим в 20 раз больше образцов для тестов - и поставим на крыло "Дельта Даггер" в 20 раз быстрее. А вот не работает нифига.
 
Если СПАО - это страховые ПАО, то всё они позволят.

Автономные системы сами по себе вообще не оперируют понятием "ценность человеческой жизни", им оперируют создатели этих систем.

К тому же задача имеет ещё один аспект: если уж система оказалась в такой непредвиденной жопе, насколько мы вообще уверены в том, что управляющие воздействия дадут ожидаемый результат.
 
Ага. Например, автоматика без проблем сможет во время загрузки самолета при внезапном сигнале возгорания на борту в заднем багажнике автоматически врубить первую очередь пожаротушения. В тот момент, когда в багажнике - люди без средств защиты (грузчики и/или бортоператоры, занятые размещением и креплением груза). И убить всех, кто там находится, поскольку средств индивидуальной защиты на этот случай у них нет. Человек хотя бы задумается перед включением - а не ложный ли сигнал.
И только не рассказывайте мне, что автоматика способна будет еще и самолеты сама грузить. В текущий момент времени - нет, пока хотя бы есть грузы, требующие крепления к конструкции ВС (клетки с собаками, колеса техаптечек, негабаритные грузы сложной конфигурации и тому подобное).
К слову сказать, и полет беспилотника с пассажирами не делают возможным по той же причине - на текущем уровне развития техники и технологий, на мой взгляд, добиться приемлемого уровня отказобезопасности на случай нештатных ситуаций. Потеря радиосвязи при заходе - не такое уж и редкое событие, при этом автоматика может заглючить, а у человека-пилота есть шанс посадить самолет даже при отказе ряда систем (например, попадание молнии в радиолокатор, цепной отказ локатора, связи, автопилота...).
 
Встречные примеры привести? Человек смертен и задача всего лишь поддерживать смертность популяции на социально приемлемом уровне, а не останавливать прогресс потому что где-то может умереть грузчик.
 
хорошо, что вы только воинствующе дилентантствуете в этой ветке, а не лично работаете над прогрессом, да
 
Возможно это хорошо, только сегодня в мире происходит ежегодно скажем 3-4 крупные авиакатастрофы, в которых гибнет примерно 600-800 человек. Я говорю, что если их станет 1-2, то это хорошо, потому что как минимум решит проблему с пилотами в России, Африке, плюшевой Азии и так далее. Вы говорите нет, пусть бьются дальше, потому что автоматика ноль не даст. Логика как минимум странная. Но впрочем нынешняя клоунада с ковидлой показывает, что у человечества мозги уже набекрень настолько, что даже арифметика скоро станет восприниматься как крамола
 
Ага, в Бишкеке автоматика не тот маяк захватила - просвистели над ВПП и аул с землей сровняли.
Да, пилоты ошиблись, но в подобных ситуациях, как показала статистика, они обычно успевают взять управление и уйти на второй (вспоминаем более свежий случай с 777 в Шереметьево).
Не будет пилотов - будут новые Бишкеки.
Я в курсе вашей логики, с одним таким год назад общался после катастрофы "Сухого" - "это все необходимые для прогресса жертвы, они оправданы".
Не оправданы. Точка.
 
Плюс автоматики в том, что вылеченный один раз косяк гарантированное не повторится снова. А с человеком не так - и косяки повторяются снова и снова, и главное невозможно найти золотую середину во взаимоотношении человека и машины, потому что даже эта основополагающая константа для каждого будет своей. Так что встав в 70-е на путь автоматизации теперь уж поздно останавливаться.
И ваши примеры, я думаю, вы прекрасно понимаете, лечатся возражениями про ан-148, разложенные несколько 737, без всяких максов - не говоря уже о совсем вопиющих случаях, как недавно помянутый пожар на ту-134, где было как раз то, за что любезный бортмеханик тут ратовал: сработала сигнализация пожара и сначала один пошёл смотреть и вернулся с новостями «горит», потом ещё двое пошли тушить, потом в результате плюхнулись, потеряв предварительно 10(!) минут. А машина б просто врубила огнетушители и села
 
А конструктор автоматики - не человек? Он бы не задумался?

Я даже более того скажу: работу каждой отдельно взятой автоматики можно (и нужно) заранее проверить на газиллионе "случаев из жизни" разных пилотов. Работу каждого отдельного пилота - нельзя.

И встречный аргумент: насколько бы вы ожидали от автоматики отключения не того двигателя при сигнале возгорания одного из них?

Заглючить могут оба. Но глюки автоматики гораздо дешевле оценить заранее.
 
Надо на схемы самой автоматики смотреть. При разном расположении датчиков и иных систем возможны разные варианты, я считаю - вплоть до того, что ложные сигналы автоматика даст при том или ином раскладе.
Естественно, риски ниже, чем у живого человека - но насколько, считать надо

Технически да. Тем не менее, соображалку человека компу вряд ли прикрутят, вследствие чего там, где человек увидит оттенки, и на их основе (с определенной вероятностью)найдет корректное решение - система увидит строго 2 решения: ВКЛ и ВЫКЛ (которые приведут к катастрофическим последствиям).

С автоматикой вон янки в 1968 еще столкнулись - поставили на F111 автоматику следования рельефу местности, потому что пилот не справлялся с такой задачей. Итог - как минимум, одну машину система точно в холм и воткнула во Вьетнаме.
 
Схемы расположения датчиков, по идее, должны выбираться исходя из алгоритмов обработки информации с них.

Сейчас автоматике требуется "неумение" распознавать оттенки лучше чем это может пилот. Иначе пилот не сможет отличить корректно работающую автоматику от сбоящей.

Там разве не с гидравликой стабилизатора проблема была? В любом случае, автоматику следования рельефу местности с F-111 никто не убрал.
 
Есть теория например, что ИИ в принципе невозможен.

Загуглите "китайская комната"
 
Клown, а нужен ли ИИ в принципе? Речь же не идет о компутере, соблазняющем стюардессу, или следящем за корректной погрузкой, а об устройстве, которое отвечает за довольно ограниченный круг задач.
Автономная навигация и однокнопочный автоленд вообще не проблема - см интеграцию оной системы от Гармина в Piper M600. Чего Буран каждый раз приплетать? Думаю грузовые перевозки будут автоматизированы в высокой доле в ближайшие 10 лет. Когда аварийность доказуемо снизится ниже аварийности ВС с экипажем, будет сделан следующий шаг. А наши друзья маркетологи и копирайтеры позаботятся о том, чтобы полет в автомате в головах людей стал нормой.
Тесла меня уже пяток раз вытаскивала из потенциально неприятных ситуаций, за что я г-ну Маску премного благодарен и уверен, что авиация пойдет тем же путем.
 
Естественный тоже. Представим себе голову Джона Сёрла, в которой находится куча нейронов, ни один из которых не знает английский...