А сам Семихатов-то написал бы?Аналогичный опыт предложил сделать отечественный учёный - физик Семихатов, известный популяризатор квантовой механики. Теории, которой в этом году исполнилось 100 лет. Так вот он предложил дать ИИ всю информацию, накопленную человечеством к 1925 году и посмотреть сможет ли ИИ написать уравнение Шредингера, с которого, собственно, и началась квантовая механика. Сам Семихатов при этом лукаво улыбается...
А зачем это, применительно к гражданской авиации?Всему свое время, квантовая механика уже делает уверенные шаги, а что касается "спросить ИИ, почему так сделал" уже возможно, т.е. "открутить" событие.
Пусть ИИ "потренируется на кошках" - набьёт руку в военной авиации. Авиация гражданская должна быть консервативна - она людей возит.ИИ пришел в авиацию и это факт и дальше будет интегрироваться. Нейросети нового поколения обучаются по принципу подкрепления, то есть алгоритмы использования прошлого опыта действий человека это вчерашний день, обучение нейросетей идёт с нуля, как ребенок учится ходить, ему не читают лекции по физике движения , так и ИИ ставится задача и он выполняет ее наиболее эффективным оптимальным образом через самообучение с пробами и ошибками, отсюда разработки по беспилотной авиации и т.д.
Квантовые процессоры сами по себе прорыв в любом применении, а возможность анализировать решения ИИ плюс в доверии внедряемых функций.А зачем это, применительно к гражданской авиации?
Какое отношение всё это, две страницы имеет к теме?, правильно, никакого - оффтопом занимайтесь в профильных темах.Квантовые процессоры сами по себе прорыв в любом применении, а возможность анализировать решения ИИ плюс в доверии внедряемых функций.
Ну вот и прорывайтесь в военной авиации, заслуживайте доверие внедряемых функций.Квантовые процессоры сами по себе прорыв в любом применении, а возможность анализировать решения ИИ плюс в доверии внедряемых функций.
Я вас понимаю, с огромным уважением отношусь к аналитическим способностям человека, вот только две последние обсуждаемые катастрофы, к огромному сожалению, видимо не по вине техники.Ну вот и прорывайтесь в военной авиации, заслуживайте доверие внедряемых функций.
А анализировать решения оставьте КВС.
В 2025 году - да, поскольку стереть известную ему информацию в его голове без психиатрических последствий невозможно...А сам Семихатов-то написал бы?
да... он же копирует людей ...А ИИ боится разбиться с пассажирами за спиной?
уже все потренировались ... 100500 поколений кроманьйонцев не дадут соврать ... вероятность успеха не более 2-3 процентов ...Может, сначала "потренироваться на кошках"?
а других и нетути ... придется нам на старости лет как-то жить с этой душевной травмой ... примерно как нашим бабушкам и дедушкам ...В ближайшем будущем любители смузи на самокатах обучат эту игрушку лазить по самолёту и чинить его и в жару и в холод, в дождь и снег. Обучат применять творческий подход в поиске и устранении неисправностей, обучат как обходиться без жопомера при пилотировании. Ну ну, флаг в руки, барабан на шею и якорь в жопу.
по большому счету программеры и компании хотят того же самого, что и самолетостроители ... но наши предки как-то тыщи лет и без самолетов и без смартфонов с компами обходились ...Баг 2000.Ничего вам не говорит? Программисты и их корпорации тоже денежек хотят. И кушать. Желательно не корочку хлеба а булки с маслом и икрой.
странно ... а мне казалось, что автопилот например вполне себе логичная система и понятно почему и какие действия он совершает ... или адаптивный круиз-контроль ... да масса всего ... тот же будильник ...Хуже. КВС если он уцелел можно спросить. А вот спросить ИИ _почему ты выпустил закрылки вместо уборки шасси_ невозможно. Точнее спросить то можно. Наверное. Но ответ не будет нести никакого смысла.
А уж ошибки... Неудачно задали RAG данные в запросе. И для теста спросили а из чего состоит у нас такая то подсистема. И ИИ вместо того чтобы сказать _не знаю вы мне не дали информацию_ начал нести какую то полную чушь. Домысливая ответ так чтобы удовлетворить спросившего. Но получив в итоге полную ненаучную фантастику в ответе.
Как бы автопилот в сложных ситуациях отключается и передает управление пилоту, потому что не может алгоритм справиться. По этому четко прописать алгоритм черному ящику и назвать ящик ИИ не получиться. Или это не ИИ, или этот алгоритм совсем даже не четкий.как пилот, вы тоже следуете определенным процедурам ... почему ии должен делать иначе, если ему четко прописать его задачи и алгоритмы действий? ...
Только чтобы хотеть, надо понимать чего именно хотеть. Опускаясь на уровень ниже. Переводчикпо большому счету программеры и компании хотят того же самого, что и самолетостроители
смотря, что Вы имеете ввиду под словом "автопилот", зачастую, описывают АБСУ (ЭДСУ), а считают, что "это "автопилот"...а мне казалось, что автопилот например вполне себе логичная система и понятно почему и какие действия он совершает ...
второй пилот в сложын ситуациях тоже отключается и передает управление квс ...Как бы автопилот в сложных ситуациях отключается и передает управление пилоту, потому что не может алгоритм справиться. По этому четко прописать алгоритм черному ящику и назвать ящик ИИ не получиться. Или это не ИИ, или этот алгоритм совсем даже не четкий.
и? какой вывод вы делаете?Только чтобы хотеть, надо понимать чего именно хотеть. Опускаясь на уровень ниже. Переводчик
с великолепным знанием языка не в состоянии внятно перевести специализированный текст или
речь на обычном сленге. Чтобы что-то "прописать" надо обладать опытом и знаниями на два порядка
выше.
Это свойство человеческого мозга. Исключи его из социума до 5-7 лет и все, дальнейшее программирование становится невозможным...да... он же копирует людей ...... развивается на основе сгенерированного нами контента ...
есть мнение ... мое ... что естественного интеллекта как-бы и не существует ... все известные нам маугли доказали это ...
здесь конкретно я имел ввиду автопилот самолета ...смотря, что Вы имеете ввиду под словом "автопилот", зачастую, описывают АБСУ (ЭДСУ), а считают, что "это "автопилот"...