Была в ЧатЖПТ лазейка в виде режима бога. Вроде ее прикрыли, но сеть зато потупела.это сейчас ограничивается только на уровне блокировки промптов
Follow along with the video below to see how to install our site as a web app on your home screen.
Примечание: This feature may not be available in some browsers.
Была в ЧатЖПТ лазейка в виде режима бога. Вроде ее прикрыли, но сеть зато потупела.это сейчас ограничивается только на уровне блокировки промптов
"С компьютерной сетью" могло бы пройти, если её использовать безответственно.С компьютерной сетью такой номер не пройдёт. Или пройдёт?
...в кабине все выглядит интересней...Действие там одно - нажать кнопку чтобы сигнал погасить. "Опытные" машинисты не просыпаясь жмут эту кнопку. За рюмкой чая с машинистом довелось как то посидеть...
"С компьютерной сетью" могло бы пройти, если её использовать безответственно.
С процедурой валидации компьютерной сети не пройдёт. Сеть, которая забудет что-то критичное для управления самолётом, не будет допущена до управления самолётом.
Отчасти.То есть компьютерная сеть выступает как бы в роли разработчика?
Не будете ли столь любезны немного развернуть?В "генеративных нейросетях" (вроде ChatGPT) в набор входных данных надо при этом включать текущее состояние используемого генератора псевдослучайных чисел.
Генеративные нейросети аппроксимируют не некую однозначную функцию от параметра, а (тоже параметризуемую) функцию, которая преобразует элемент выборки заданного распределения случайной величины (обычно вектора заданной размерности с равномерно распределёнными независимыми компонентами) в элемент выборки случайной величины, распределённой по желаемому закону (например, равновероятных или даже разновероятных различных "правильных" ответов на заданый нейросети вопрос).Не будете ли столь любезны немного развернуть?
Только что произойдет, если входные данные будут чуть-чуть другими, предсказать невозможно. Что и доказывается случаями аварий автомобилей с АП.cоответствие этого отклика ожидаемому при заданных входных данных поддаётся валидации.
Да возможно, конечно - именно так их и взламывают.Только что произойдет, если входные данные будут чуть-чуть другими, предсказать невозможно.
Можно подумать, будто до появления нейросетей аварий автомобилей с АП не было.Что и доказывается случаями аварий автомобилей с АП.
Много разного. Автономное вождение существовало и до нынешнего бума нейросетей.Кстати, а там на каких принципах все устроенно?
Наверное я не точно выразился. Если это просто алгоритм, его можно как-то формализовать, хотя если это очень сложный алгоритм, то он тоже работает на вероятностях, с вероятностным же результатом.Можно подумать, будто до появления нейросетей аварий автомобилей с АП не было.
Я в бытность свою студентом очной формы обучения, ставил будильник на шкаф, чтобы точно проснуться пока его выключаю. Как итог, за неполную неделю я научился его выключать в прыжке не просыпаясь и не открывая глаз)))Действие там одно - нажать кнопку чтобы сигнал погасить. "Опытные" машинисты не просыпаясь жмут эту кнопку. За рюмкой чая с машинистом довелось как то посидеть...
Как ни крути, программу, определяющую действия робота, пишет человек.
И поведение робота зависит от этой программы.
Вот здесь с 14:35 до 15:50 говорится о проблемах с роботами на производстве.
Вообще, я не могу сказать за китайцев и Tesla, но нормальные автопроизводители не используют нейросети в своих не то, что системах автоматического управления, но даже в модулях прикладного уровня типа мультимедиа. Алгоритмы автопилотирования всё таки конвенциональны, хотя и используют какую-то "нечеткую логику". Я точно не знаю, что это такое, но я так понимаю что-то связанное с массивами и аппроксимацией, но без возможности утверждения неверного результата как валидного. Они максимум обходятся интеграцией сторонних сервисов по распознаванию голоса. Что-то используют свое, но не много. Поскольку получить гарантированный результат от нейросети в процессе ее продолжительной работы практически невозможно. Ну, как пример - системы автопилота обкатывались на дорогах Еворпы, обкатали все ок, а потом расширили покрытие на страны СНГ. И тут понеслась... Через полгода все автопилоты перестанут держать разрешенную максимальную скорость в местах где нет камер, на красный нельзя, но если очень хочется и время близкое к началу рабочего дня, то можно и т.д... Придётся разработчикам с детства ей внушать "с ними не общайся! Они тебя плохому научат"Наверное я не точно выразился. Если это просто алгоритм, его можно как-то формализовать, хотя если это очень сложный алгоритм, то он тоже работает на вероятностях, с вероятностным же результатом.
Полагаю, там так. Если рассчитанные вероятности двух или нескольких вариантов решения близки друг к другу, эти варианты корректируют, умножая на псевдослучайную последовательность до тех пор, пока разница не превысит заданный порог. Примерно так делает человек, когда у него два равнозначных варианта, выбирает наугад.Поэтому получается что пешеходов давить нельзя! Но это не точно...
Так какая сеть нужна?... Придётся разработчикам с детства ей внушать "с ними не общайся! Они тебя плохому научат"
АП не будет обучаться в процессе езды, как производитель обучит, так и будет ездить.расширили покрытие на страны СНГ. И тут понеслась... Через полгода все автопилоты перестанут держать разрешенную максимальную скорость в местах где нет камер, на красный нельзя, но если очень хочется и время близкое к началу рабочего дня, то можно и т.д...
АП не будет обучаться в процессе езды, как производитель обучит, так и будет ездить.
Да, хоть в самолете, хоть в машине.АП - это своего рода набор решений (проходных и непроходных калибров) для определенного набора ситуаций.
Не очень понял вопрос. Проблема в непредсказуемости поведения, хоть нейронной сети, хоть и обычного очень сложного алгоритма. Это вам тут неПроблема - в однозначности оценки каждой из них?
Да, хоть в самолете, хоть в машине.
Не очень понял вопрос. Проблема в непредсказуемости поведения, хоть нейронной сети, хоть и обычного очень сложного алгоритма. Это вам тут нездесьМКАС.
В случае радикального изменения шаблонов уличного движения (при переезде между странами, например) автомобиль с таким АП либо не тронется с места, либо очень быстро попадёт в аварию.АП не будет обучаться в процессе езды, как производитель обучит, так и будет ездить.
Естественно, такое и случалось, когда АП кого-то сбивал или врубался в препятствие.получается, что возможна ситуация: "это мы не проходили, это нам не задавали", на которую АП вообще не отреагирует?