Siledka, в том-то и проблема... Речь же идет не об одной глобальной нейросети, а о тысячах локальных, "живущих" в конкретном самолете. И тут сразу встает вопрос их синхронизации.
Казалось-бы все красиво - прилетел, подрубился к интернету, рассказал некой центральной нейросети чему научился за выполненный полет, скачал новости "коллег"... Только вот, действия, давшие позитивный результат в одних условиях, могут стать катастрофичными в других. И кто-то должен эти рамки выставить. Кто-то, обладающий совершенно фантастической полнотой информации.
И второй вопрос. Можно ли разрешать ИИ отступать от РЛЭ? Если можно, то в каких пределах? Напомню, РЛЭ, априори, не является идеальным, отлитым в граните, документом. Он постоянно совершенствуется, в том числе и на основе нарушений - и удачных, и катастрофичных. Тот-же MCAS. Для борьбы с ним, как вроде-бы выяснено, помогает процедура Runaway Stabilizer. Но, судя по всему, успешно завершившие полет экипажи выполняли эту процедуру "творчески". Ни в одной редакции QRH до тех катастроф нет ни слова про "поставь стаб как тебе надо, а потом отрубай". Можно ли компьютеру доверять подобное творчество? Или РЛЭ вообще будет отсутствовать, заменившись на некий набор данных, основываясь на которых ИИ будет писать РЛЭ на ходу сам для себя?