Следует помнить, что задержка передачи через спутник может быть до нескольких секунд.Илон Маск планирует запустить кучу спутников для покрытия интернетом всей планеты. Данные спутники в том числе могут быть использованы для беспилотной авиации, на мой взгляд.
Всё так! Приоритет должен быть у командира, в данном случае - у "мозгов" на борту. Уповать на то, что в нужное время нужная команда будет гарантированно передана (и уж тем более, получена, дешифрована и исполнена) - это надо быть очень оптимистичным человеком!Бортовая система должна относиться с подозрением к командам, даже если они подписаны валидной подписью. А это уже ИИ на борту.
Бортовая система должна относиться с подозрением к командам, даже если они подписаны валидной подписью.
Почему вы решили, что ИИ будет бездумно добавлять тягу? Гораздо вероятнее , что для начала он проанализирует, по каким причинам обычно падает приборная скорость в условиях, когда остальные показатели в норме. И ничего добавлять не станет, а мгновенно докопается до проблемы с датчиками скорости и примет нужное решение.например: сразу, как только начала падать приборная скорость, автомат начал ее компенсировать увеличением тяги, за счет чего за 2-3 секунды, пока станет ясно, что причина в неисправном ППД, самолет получит несколько добавочных узлов. А если при этом еще и скорость по спутникам окажется измеренной неверно, то ситуация очень быстро станет катастрофической. И это не невозможная ситуация, а просто маловероятная.
Вроде как доросли, потому и ветки такие появляются. Да и какой смысл говорить о "фальшивом" ИИ, который по факту не умнее обычного автопилота?Истинный ИИ с данной проблемой справится, но, как я уже говорил, мы до такого уровня пока не доросли
Почему вы решили, что ИИ будет бездумно добавлять тягу? Гораздо вероятнее , что для начала он проанализирует, по каким причинам обычно падает приборная скорость в условиях, когда остальные показатели в норме. И ничего добавлять не станет, а мгновенно докопается до проблемы с датчиками скорости и примет нужное решение.
Насколько я понимаю, вообще бесполезно пытаться думать за ИИ. В том-то и его особенность, что он сам всё придумает, причём гораздо лучше человека, а человек даже и не поймёт, как именно ИИ думал при этом. Потому что для человека этот уровень непостижим.
В этом и есть преимущество ИИ перед человеком при решении узкоспециализированных задач. В этом и страх человека перед ИИ.
Вроде как доросли, потому и ветки такие появляются. Да и какой смысл говорить о "фальшивом" ИИ, который по факту не умнее обычного автопилота?
Про шахматы давно было всё понятно.Ветки появляются потому что народ верит в "силу науки". Но то, что Каспаров проиграл компьютеру, вовсе не означает, что ИИ создан - просто наконец-то создан компьютер, который быстрее человека может перебирать варианты на нужную глубину.
Тут только что в разных ветках видео выкладывали, как Яндекс-мобиль в снегопад ездит по московским улочкам. Очередной этап.Или, совсем простой пример: автомобиль с автопилотом должен доехать из точки А в точку Б, причем по дороге из А в Б - 10 км асфальта, 1 км грунтовки, еще 10 км асфальта. На асфальте иногда встречаются выбоины, а грунтовку во время дождя развозит почти до состояния болота.
Это деление имеет смысл в том случае, если перед нами стоит задача разгрузить человека (потому что человек - дорогой ресурс).Если говорить упрощенно, есть три типа операций (процессов): ручные, автоматизированные и автоматические. Первые - это когда требуется непосредственное действие со стороны человека, например, нажать кнопку. Вторые - человек только контролирует результат выполнения. Третьи не требуют участия человека вообще.
Это в корне неверный подход к проектированию автопилотов во второй декаде 21 века.Теперь предположим, что либо метеоусловия окажутся плохими, либо последовательно выйдет из строя более одного датчика - например, один ППД и один спутниковый датчик. От заложенной программы полета придется отклоняться, выбирая альтернативу. Истинный ИИ с данной проблемой справится, но, как я уже говорил, мы до такого уровня пока не доросли, соответственно, автопилот должен будет выбрать подпрограмму из числа заложенных в него, чтобы на нее переключиться.
Нет. Человек в этом смысле конструкция значительно более обученная. Вот только обучалась она (миллионами лет эволюции) бегать по земле, а не летать в небе.Человек в этом смысле конструкция значительно более надежная.
Вы просто плохо себе представляете, что такое ЧФ. Между тем, он "присутствует" практически во всех авиационных происшествиях.ЧФ задолбал уже всех во всем мире.
Начнём с того, что ИИ ещё не существует.Отличительная особенность ИИ - обучаемость.
Вы передёргиваете.Статистика по беспилотным автомобилям уже говорит, что в аварии они попадают реже, чем люди.
Про шахматы давно было всё понятно.
Но есть ещё игра Го, про которую говорили, что тут ИИ ещё очень долго не сможет с человеком сравниться, потому что там считать варианты невозможно, нужно глубокое понимание стратегических принципов. И вот это настоящий рубеж.
Так выиграл, стервец, у чемпиона мира по Го, ещё пару лет назад. Причём показал такое понимание стратегии игры, которое людям недоступно.
А ещё недавно сделали шахматную штучку на тех же принципах, которая чуть-чуть потренировалась, сама с собой поиграла, и после этого сильнейшую классическую шахматную программу уделала как гроссмейстер перворазрядника. Просто революция в мире шахмат случилась, гроссмейстеры в офигении.
Тут только что в разных ветках видео выкладывали, как Яндекс-мобиль в снегопад ездит по московским улочкам. Очередной этап.
Никаких жёстких "переключений на подпрограмму" быть не должно. Автопилот должен считать множество вариантов того, что в данный момент происходит с самолётом, и выдавать наиболее безопасное управляющее воздействие с точки зрения вероятностей и опасностей различных элементов этого множества и достижимости цели, поставленной ему системой навигации на данный момент.
В глубину вы даже шахматы не переберёте, не говоря уже о го.Это все перебор вариантов в глубину.
Теория игр - это немного о другом. Это ближе к экономике и теории эволюции.Вообще, теория игр слабо применима к управлению конкретной техникой,
В данном случае это как раз "оценка перспективности ходов и оценка перспективности позиций".скорее имеет смысл смотреть в сторону разной статистической математики.
Что-то вроде - оценка гипотез при меняющихся весовых коэффициэнтах.
GPS в любом случае не панацея - его точности не хватает для того, чтобы держать ряд, и он не работает в тоннелях.Пусть мимо Кремля поездит.
Там как раз есть "черная дыра", в которой периодически пропадают навигационные спутники. Вот если он сумеет достойно выплыть из Гвинейского залива, можно будет принять его за прототип.
Битый асфальт и грунтовку после дождя я не просто так упомянул в виде условий - это неплохие примеры форс-мажоров, которые не могут быть запрограммированы заранее.
Почему? Если известно, что датчик существует (а как без этого им пользоваться?), что мешало предусмотреть его отказ?Это все действия в рамках основной программы. А теперь предположим, что появился фактор, который в основную программу не укладывается. Например, отказ одного из датчиков.
Это плохая, негодная программа, не надо такой пользоваться.При недостоверности части входных данных программа не может выполнять свою главную функцию - выбирать наиболее безопасное (каковы критерии безопасности?) управляющее воздействие.
Нет, не надо. Достаточно эмпирического доказательства, что принимаемое решение приводит к меньшей вероятности авиапроисшествия, чем человек.Во втором случае необходимо математическое доказательство правильности принимаемого решения для достаточно широкого класса ситуаций
Нет, не надо. Достаточно эмпирического доказательства, что принимаемое решение приводит к меньшей вероятности авиапроисшествия, чем человек.
Это плохая, негодная программа, не надо такой пользоваться.
Перестраивать навигацию, зная локальные условия, системы автономного вождения., разумеется, могут. И чем отличается конкретно авиация - уже существующая возможность полётов по приборам. Пилоту не надо вылезать из самолёта и тыкать палкой в ближайшую тучу, чтобы видеть, что там гроза.
Критерий безопасности - риск авиапроисшествия (взвешенный по его тяжести) в пересчёте на один запланированный маршрут
Конечно.Кгхм. Вы значение слова "эмпирическое" понимаете?
Программист. Причём занимающийся автономным вождением автомобилей.Грызет меня смутное подозрение, что Вы - не программист.
У автомобилей то же самое.Как я уже говорил, у авиации есть одно существенное отличие от многих других видов человеческой деятельности:в полете нельзя "обнулиться" и начать все сначала.
То, что минимум является минимумом, безусловно, доказывается математически. Точнее, алгоритмически. А вот то, что такой способ оценки рисков приводит к меньшей вероятности происшествия - доказывается эмпирически. И, к сожалению, никак иначе.Чиво-чиво?
Риск - это оцениваемая величина. В вашем случае, нормированная. Критерием она являться не может. А вот нахождение минимума оцениваемой величины - критерием является. Но такие вещи опытным (эмпирическим) путем не доказываются, а доказываются математически.
отлично представляю. Более того, не только в авиации - в два-три приема (как в анекдоте про козла и Федота) - любой грамотный в своей области технический специалист докажет наличие ЧФ практически в любом происшествии/катастрофе. Все рукотворно, кроме 0,000....% форс-мажора. Технические причины в отчетах - возникают, [на всякий случай - я так думаю))], в нежелании показать в данных конкретных ситуациях этот ЧФ (что, в свою очередь, реализуют те же грамотные технические специалисты - чтобы выглядело хотя бы убедительно).Вы просто плохо себе представляете, что такое ЧФ. Между тем, он "присутствует" практически во всех авиационных происшествиях.
Виновниками могут быть конструкторы (разрушение привода стабилизатора Як-42), производственники (отрывы листов обшивки на 737), ремонтники ("пьяный" Ту-154 на Чкаловской), наземный техсостав (неснятые заглушки на ПВД). Да даже материаловеды могут накосячить (Ан-10).
И лишь в последнюю очередь "носителями ЧФ" являются лётчики. Они стоят в конце этой линии потенциальных ошибок - на них всё, как правило, и сваливают.
Поэтому мысль о том, что ИИ избавит от негативных последствий ЧФ, неверна по определению.
Просто в описанную выше цепочку "носителей ЧФ" добавятся создатели этого самого ИИ, а пассажиры будут гибнуть уже по причине ошибок этих самых создателей.
не все спутники одинаково полезныСледует помнить, что задержка передачи через спутник может быть до нескольких секунд.
ну вот вам свежий пример "ИИ в авиации" (ну почтиЭто все перебор вариантов в глубину.
Отсутствие понятия есть всего лишь следствие отсутствия явления.И нет такого фиксированного понятия - искусственный интеллект.
Это распространённое заблуждение....автопилот минимизирует ЧФ на стадии дорожной эксплуатации.
Я всегда в таких случаях вспоминаю своего знакомого, который занимался проблемами "интеллектуализации" вычислительных процессов.ну вот вам свежий пример "ИИ в авиации" (ну почти)