Автоматика как фактор безопасности в современных транспортных средствах

VirPil, мне кажется путь пойдет через удаление еще одного человека из кабины в обозримом будущем и перенос автоматизируемых задач на электронику. Нейронки тоже могут быть частью этого перехода, но пока что в ограниченном виде под капитанским надзором - практически замена второго пилота. А уж что будет через 15-20 лет никто не знает. Мы же тоже не ожидали LLM?
 
Реклама
VirPil, мне кажется путь пойдет через удаление еще одного человека из кабины в обозримом будущем и перенос автоматизируемых задач на электронику. Нейронки тоже могут быть частью этого перехода, но пока что в ограниченном виде под капитанским надзором - практически замена второго пилота. А уж что будет через 15-20 лет никто не знает. Мы же тоже не ожидали LLM?
Не обязательно удалять из кабины ВП. Можно летать втроём. Капитан, ВП и виртуальный пилот - помощник.
 
Разумеется. Но если в кабине один человек, это сильно повышает требования к его здоровью, работоспособности. И трудно так навскидку сказать, что дешевле, держать двоих умеренно здоровых или одного очень здорового и очень грамотного.
 
Если ему об этом сказали заранее.
Вообще-то сказали давно. Чтобы достать людей из машины под водой надо разбить стекло. Потому как дверь не откроется пока внутри будет оставаться воздух. А после разбивания стекла - меняются условия и робот обязан заново учесть все параметры. Впрочем и человек, если полезет спасать, должен все это знать.
 
Последние полгода смотрю на это сравнительно изблизи, хоть и с опаской. Тренируют модели не совсем программисты, а результаты очень зависят от того, чем ты эти модели кормишь и как решения оцениваются, и этих данных должно быть много. Проблема в том, что мы точно не знаем что в результате окажется критерием принятия какого-то решения и играет ли понедельник или суббота в этом вообще какую-то роль. Видим только результат.
Это вообще проблема всех нейро сетей. Их тренируют на что-то и они это что-то выдают. Но объяснить почему ни одна нейросеть не может. В итоге нельзя гарантировать того что выходило в первых распознавалках образов - человек видит Мерлин Монро а нейросеть говорит _СТРАУС_.
 
Не обязательно удалять из кабины ВП. Можно летать втроём. Капитан, ВП и виртуальный пилот - помощник.
Ну зачем так сложно. Пилот-бортпроводник будет специальность. И второй пилот - второй бортпроводник.
 
Вот в кабинах управления жд транспортом периодически звучит сирена... и если никаких действий не последовало, включается аварийное торможение (после повторного предупреждения, наверное) ..
Действие там одно - нажать кнопку чтобы сигнал погасить. "Опытные" машинисты не просыпаясь жмут эту кнопку. За рюмкой чая с машинистом довелось как то посидеть...
 
Реклама
Действие там одно - нажать кнопку чтобы сигнал погасить. "Опытные" машинисты не просыпаясь жмут эту кнопку. За рюмкой чая с машинистом довелось как то посидеть...
С сиреной и кнопкой спать сложнее конечно, но да, можно, если очень хочется. Эта кнопка - не панацея, это борьба со следствием усталости. Но не с причиной. Машинист если отдохнувший и здоровый, он спать не будет на работе.
 
Как ни крути, программу, определяющую действия робота, пишет человек.
И поведение робота зависит от этой программы.

Вот здесь с 14:35 до 15:50 говорится о проблемах с роботами на производстве.

 
Действие там одно - нажать кнопку чтобы сигнал погасить. "Опытные" машинисты не просыпаясь жмут эту кнопку. За рюмкой чая с машинистом довелось как то посидеть...
Именно поэтому в старые добрые добавили лампочку. На наших локомотивах было через раз, один раз лампочка второй раз свисток. Но это зависело от дороги. Вроде бывало и только лампочка. От решения великого начальства зависело.
 
программу, определяющую действия робота, пишет человек.
Это при классическом подходе - задаются условия "если закрылки убраны, а угол атаки большой - то МКАС втыкает самолет в землю". А с нейронными сетями уже никто ничего не пишет. Оно как-то само что-то выдает.
 
Это при классическом подходе - задаются условия "если закрылки убраны, а угол атаки большой - то МКАС втыкает самолет в землю". А с нейронными сетями уже никто ничего не пишет. Оно как-то само что-то выдает.
Прежде, чем они стали что-то выдавать сами, разве не прошли они стадию своего "кибергенетического" формирования и развития под надзором своего создателя-человека? А ведь законы робототехники были сформулированы А.Азимовым "задолго до". Значит, не были они заложены в "сознание" нейронных сетей их "архитекторами" еще в зачаточной стадии оных. Что логично, если таких ограничений не было в планах тех, кто ринулся подобные сети создавать. Еще бы: роботизированные тем или иным способом виды вооружений никак не могут опираться на вышеупомянтые законы робототехники первейшим из которых является: «робот не может нанести вред человеку или своим бездействием допустить, чтобы человеку был нанесен вред». ИМХО.
 
разве не прошли они стадию своего "кибергенетического" формирования и развития под надзором своего создателя-человека?
Нет. Человек просто смоделировал нейронную сеть в компьютере, и начал ее обучать. Причем нейронная сеть это не только ЧатЖПТ, а и распознавание изображений родом из конца 50х. Можно играться конструкцией, настройками для улучшения результата, но никто не задает четкого алгоритма работы. Обучение происходит до получения приемлемых ответов, но предсказать, что система выдаст в каком-то случае невозможно. Точнее можно подать на вход данные и посмотреть, что выйдет. Если что-то не то - только дообучать, но сказать "ага, это решение приводит к катастрофе, вот надо поменять эту строчку кода" - невозможно.
 
ведь законы робототехники были сформулированы А.Азимовым "задолго до". Значит, не были они заложены в "сознание" нейронных сетей их "архитекторами" еще в зачаточной стадии оных.
Их невозможно заложить. Можно как-то корректировать обучение с их учетом, но опять таки, никакой гарантии детерминированного результата нет.
 
Пообщался с самой ЧатЖПТ на эту тему)))


Можно ли заложить в нейронную сеть законы робототехники Азимова?

Хотя эти законы Азимова интересны с литературной и этической точек зрения, в реальной жизни они сложны для технической реализации. Нейронные сети могут использоваться для создания систем искусственного интеллекта, но формализация и внедрение таких этических принципов в алгоритмы может быть сложной задачей.

Проблема заключается в том, что нейронные сети обучаются на основе данных, и они могут проявлять поведение, которое не всегда соответствует формальным этическим нормам. Разработчики могут пытаться внедрить подобные принципы в процессы обучения или программирования нейросетей, но гарантировать абсолютное следование таким законам трудно.

Тем не менее, исследования в области этики и искусственного интеллекта продолжаются, и существует интерес к созданию более этичных и ответственных систем. Это включает в себя обсуждение стандартов и принципов, которые могут направлять разработку и использование технологий искусственного интеллекта.
 
Причем если перегенерировать ответ, то выдает такой вариант:

Эти законы созданы для литературных целей и являются частью фантастического мира Азимова. На практике, в реальных нейронных сетях и технологиях их применение сложно осуществимо. Нейронные сети не обладают этическими принципами и моральным суждением, и обеспечение таких законов в их функционировании требовало бы создания средств контроля и мониторинга, которых у нас на данный момент нет.

Однако эти принципы можно использовать как идею при программировании роботов и искусственного интеллекта, чтобы создавать технологии, которые соблюдают эти базовые этические принципы. Но внедрение их в виде жестких правил требует глубокого понимания контекста и сложности реального мира, что в настоящее время является сложной задачей.
 
Реклама
VirPil, по-моему это сейчас ограничивается только на уровне блокировки промптов
 
Назад