Автоматика как фактор безопасности в современных транспортных средствах

Да, но надо придумать, как очищать датчики от слякоти, например. Как резервировать. Как определить неисправный. Как однозначно определять объекты в плохих условиях и уметь принимать нестандартные решения, если потребуется. Всего лишь.
То есть не проблемы, а задачи, уже более-менее решаемые автостроителями (и нет, Uber я автостроителем не считаю).

ПС Производители уверяют, что невозможно придумать чеклисты на все случаи жизни, потому предлагают нам включать голову, если вдруг что.
Можно научить программу писать чеклисты под ситуацию. То, насколько адекватно текущая версия прошивки "включает голову" на широкий набор незнакомых ей ситуаций, можно проверить на стенде. С пилотами-людьми так, к сожалению, не получится - люди столько не живут.
 
Реклама
Сначала он должен ее увидеть.

Хуже. Отличить _собака это или ребенок_. А с последним есть проблема например _переученности систем АИ_ - учат учат _вот это человек а вот это собака_ а потом бац, и подсовывают негра - и система выдает _а это собака_ так как собаки были черными а люди белыми.

Но для авиа такси с парашютной системой спасения и компоновкой квадракоптера - автоматические системы возможны.
 
stranger267, Все верно. Наличие пилота на борту ВС объективно ограничивает область требований безопасности к бортовому железу и софту, оставляя массу вопросов на усмотрение и экспертизу пилота, полагая, что он, благодаря уникальным качествам человека разумного, справится. С переходом на полностью автоматический беспилотный вариант, все эти наперед неизвестные непонятки придется поручить автомату. И не просто поручить, а еще и каким то угарантирвать, что это будет безопасно. Пока мы не поймем, как практически можно будет подтвердить или опровергнуть соответствие искусственного пилота требованиям безопасности (нормам летной годности), ничего путного из этой затеи не получится. ИМХО.
 
Последнее редактирование:
Две мысли, может быть - новых по теме: Первая - более локальная прикладная; очень может что многое в обстоятельствах катастрофы в Индонезии было создано реакцией на катастрофу турок в Амстердаме: "Гы гы, что ж экипаж не видел чтО у них с этого радиовысотомера." Но о принципе - "автоматике,- одному из двух подключенному, НЕисправному прибору/датчику.. ..ВЕРИТЬ" результатом которого был "турецкий Амстердам" не задумались..
..Прокатило
И "Боинг" продолжил нанимать "программистов"
И второе, об угаре "полной автоматизации" в треде: С какой ЦЕЛЬЮ, за какие деньги, с КАКИМ КАЧЕСТВОМ (!!!) и КОМУ этот шум нужен?
Очень знаменательные откровения,- "не топ из MITа - по три, но фиговые - по два.." "В ГугЕль топ из MITа - за 120 килобаков в год, а фиговый за 80 в "Боинг"". Если что б мне платили за такое как напрограммировали в МАХе 80килобаков в год за воняющее дешёвым смартфоном, то не что про цифровые аэропланы без экипажа, про цЫфровых женщин воздух и жратву буду распространяться, своё "ремесло" (по плодам - в кавычках) рекламировать
Существующие БПЛА, новая область, довольно узкая, туда идут "фаны" на достойные деньги; размер области пропорционален количеству таких спецов. А если спрос больше стал бы, - ломанулись бы такие "ремесленники" ("по на 80")
 
Последнее редактирование:
Наличие пилота на борту ВС объективно ограничивает область требований безопасности к бортовому железу и софту, оставляя массу вопросов на усмотрение и экспертизу пилота, полагая, что он, благодаря уникальным качествам человека разумного, справится.
Не совсем. Мы полагаем (и пытаемся таким образом проектировать оборудование), что в тех условиях, в которые мы ставим подготовленного определённым образом пилота, у него будут достаточно высоки шансы справиться с тем, что мы от него хотим. И от автоматики мы поначалу не требуем сильно большего. Если нас устраивает то, что пилот не обязан на полосе стопроцентно визуально отличать карапуза от собаки, то и от автоматики этого не требуется.
 
MG, Браво! Если бы мне нужно было затоптать и смешать с дерьмом эту тему, наверное я действова бы так же как Вы...
#автоудаление
 
MG, Браво! Если бы мне нужно было затоптать и смешать с дерьмом эту тему, наверное я действова бы так же как Вы...
#автоудаление
А по сути - есть вопрос качества работы программеров или нет!?! Не с него ли в виде между прочим двух катастроф пассажирских авиалайнеров ни в одной из которых никто не выжил, возникла тема!?!
ЦЫфровым - всё божья роса, живут играючи смартфончиками, чуть чего - засейвятся
Но "по за 80"
 
Если нас устраивает то, что пилот не обязан на полосе стопроцентно визуально отличать карапуза от собаки, то и от автоматики этого не требуется.
Воот! Именно об этом я и говорю. "Нас устраивает"- значит оставили на усмотрения/экспертизу пилота... Иба, подстпудно и ежу понятно, что при наличии чела на борту в такой ситуации у паксов есть хоть какой-то шанс. Не гарантии, а - шанс! Понимаете? А при отсутстви естественного интеллекта на борту у паксов никакого шанса не будет. Разницу чувствуете?
 
Последнее редактирование:
А по сути - есть вопрос качества работы программеров или нет!?!
Нет такого вопроса. Есть вопрос качества менеджмента, который решает, что программеру делать, а что - не делать.
 
Последнее редактирование:
А по сути - есть вопрос качества работы программеров или нет!?!
А что, програмисты запрограмировали что-то не то, что было в согласованном с заказчиком техзадании?

Воот! Именно об этом я и говорю. "Нас устраивает"- значит оставили на усмотрения/экспертизу пилота... Иба, подстпудно и ежу понятно, что при наличии чела на борту в такой ситуации у паксов есть хоть какой-то шанс. Не гарантии, а - шанс! Понимаете? А при отсутстви естественного интеллекта на борту у паксов никакого шанса не будет. Разницу чувствуете?
Нет. Возможно, это потому, что я не ёж, а разработчик систем автономного вождения, и вполне понимаю, что при неправильно спроектированной автоматике и/или неправильно обученном пилоте этот "хоть какой-то шанс" получается такой, который нас не устроит. И что автоматика тоже может основываться на нечёткой логике и в запутанных случаях стремиться к компромиссу.
 
Реклама
Программисты в данном случае были _последней инстанцией_. И грамотные спросили бы _ребята а что у вас за фигня в ТЗ написана? То что я пишу может загнать самолет в землю по отказу одного датчика_. Но... беда в том что в США происходит индусятникозация. А особенность индусов - они НИКОГДА не зададут таких вопросов, приказали _написать вот это вот и это - напишем_ а то что там видна ошибка - _не наше дело, мы никогда не вмешаемся и не укажем на проблему_. Уж не знаю индусы там или не индусы, но факт что писавшие этот софт вполне могли обратить внимание на оный ляп, но не обратили.
 
На испытаниях почему не выявили?

На испытаниях не считали это серьезным, видимо. Ну или не все варианты отказов испытывали. Опять таки, именно программист видит ТОЧНО что пишет и например то что _пишем алгоритм который запросто загонит нас в землю, без всякой защиты_ - последняя инстанция которая еще может это заметить это программист. Если он как мартышка работает тогда конечно _ой и ай_.
 
Программисты в данном случае были _последней инстанцией_. И грамотные спросили бы _ребята а что у вас за фигня в ТЗ написана? То что я пишу может загнать самолет в землю по отказу одного датчика_.
С чего вы решили, что из ТЗ для программистов, писавших MCAS, видно, что MCAS "может загнать самолет в землю по отказу одного датчика"?

В том ТЗ наверняка вообще никакие датчики не фигурируют, а фигурируют сигналы, из описания которых не понятно, были ли они отфильтрованы по "disagree". А код, из которого приходят эти сигналы, мог программистам MCAS быть даже физически не доступен.
 
Если нас устраивает то, что пилот не обязан на полосе стопроцентно визуально отличать карапуза от собаки
Не совсем так. Производители признают, что написать сценарии (чеклисты) на все случаи невозможно, и заявляют о том, что надеются на правильное решение со стороны пилотов. По-крайней мере так заявляет Боинг.
Поэтому и нет требований отличать карапуза от собаки и нет соответствующей процедуры.
 
Очень знаменательные откровения,- "не топ из MITа - по три, но фиговые - по два.." "В ГугЕль топ из MITа - за 120 килобаков в год, а фиговый за 80 в "Боинг"".

Сравнивая зарплаты, имеет смысл учитывать где их платят, в Сан-Франциско или Нью-Йорке жизнь заметно дороже, чем где-то в глубинке.
У Боинга из явно дорогих только одна локация из 5 - El Segundo в Лос-Анджелесе:

Boeing: Software Engineering Careers
 
И что автоматика тоже может основываться на нечёткой логике и в запутанных случаях стремиться к компромиссу.
Тогда Вам придется доказать, что автомат будет находить компромиссные решения не хуже человека.
Возможно, это потому, что я не ёж, а разработчик систем автономного вождения
О! Наконец появилась возможность задать два вопроса. (1) Какова в Вашей отрасли норма вероятности функционального отказа, приводящего к катастрофической ситуации? (2) Какие методы определения соответствия Вы применяете, чтобы доказать, что отказ какой-либо функции системы автономного вождения (в т.ч. из-за ошибки в софте) не приведет к катастрофе с вероятностью, выше установленной нормы?
 
Реклама
В том ТЗ наверняка вообще никакие датчики не фигурируют, а фигурируют сигналы, из описания которых не понятно, были ли они отфильтрованы по "disagree"
:) Здесь, похоже, Вы явно проецируете принятый в Вашей фирме порядок на другие отрасли. В авиации или, скажем, в атомной энергетике, так не бывает. Всегда указывается сколько каких датчиков используется для реализации функции, включая степень резервирования. Разработчик софта обязательно получает всю необходиму информацию об архитектуре системы, для которой делается софт. Как по части функционала, так и по части железа.
 
Назад