Человек vs техника - как фактор безопасности

Вероятность ошибки автомата падает в процессе совершенствования автомата. Его можно бесконечно перепрограммировать, учитывая всякие ситуации. Перепрограммировать человеков существенно сложнее :)

Палка о двух концах. К человеческому поведению можно применять статистические методы, ввиду однородности выборки (что, в общем-то, и делается в виде всяких инструкций итд).
Автомат же в массе непредсказуем. Нужна инструкция на каждый конкретный тип, а то и экземпляр. А это статистически гораздо менее точная ситуация: сложный автомат невозможно оттестировать в любых мыслимых и немыслимых комбинациях параметров, в которых он может оказаться.
 
Реклама
К человеческому поведению можно применять статистические методы, ввиду однородности выборки (что, в общем-то, и делается в виде всяких инструкций итд).
Автомат же в массе непредсказуем. Нужна инструкция на каждый конкретный тип, а то и экземпляр. А это статистически гораздо менее точная ситуация: сложный автомат невозможно оттестировать в любых мыслимых и немыслимых комбинациях параметров, в которых он может оказаться.
Вы в этом тезисе понятия "автомат" и "человеческое поведение" не попутали?
 
Вы в этом тезисе понятия "автомат" и "человеческое поведение" не попутали?

Нет. В том контексте, в котором я это высказал, человеческое поведение поддается статистике (и выборка репрезентативная до некуда, и материала набрано, и т.д.).

Автомат же сильно зависит от того, чего в него набито, помимо своей архитектуры и т.д.
Пример на пальцах - одна и та же платформа под разными ОС. Поведение разное абсолютно, от интерфейса до реакций.
Разумеется, каждый отдельный автомат имеет более высокую предсказуемость, чем среднестатистический человек. Но я-то не об этом.
 
Автомат — машина, способная изменять режим своего функционирования по определенной программе.

Ваш пример с ОС неправомочен, поскольку ОС тоже часть автомата. Прослойка между BIOS (тоже, кстати, программа) и пользовательским софтом. Исполнение какого-либо кода на джаве приведёт к одинаковым результатам, вне зависимости от ОС, как и складывание 2+2.
Надо конкретнее определять задачу, чтобы делать выводы. Вообще, почему это вдруг по-вашему статметоды к автоматам неприменимы? Теория надёжности для вас пустой звук? Так на это даже ГОСТ есть.

Автомат действует в зависимости от установленной программы и любые сбои вызваны либо поломкой автомата, что отлично прогнозируется статистикой, либо ошибкой в программе, но это не вина автомата, а ошибка программирования и отладки (тот же ЧФ). Идентичные же условия обеспечат идентичный результат для каждого конкретного экземпляра автомата (в отличие от человека).

Человек же... Может посчитать, что знает все инструкции, может обмануться, может ещё много что. Как раз к нему теория надёжности малоприменима. Там действуют такие псевдонауки, как психология, социология, соционика, эгономика, медицина, биохимия, гороскопы, хиромантия, месячные у жены и ещё дофига чего.
 
Последнее редактирование:
Автомат же сильно зависит от того, чего в него набито, помимо своей архитектуры и т.д.
Пример на пальцах - одна и та же платформа под разными ОС. Поведение разное абсолютно, от интерфейса до реакций.
Человек тоже. Набит он сосисками, димедродом, анашой или коксом - поведение разное абсолютно, от интерфейса до реакций.

Разумеется, каждый отдельный автомат имеет более высокую предсказуемость, чем среднестатистический человек.
Более того, каждый отдельный автомат имеет более высокую предсказуемость, чем каждый отдельный человек.
 
Автомат — машина, способная изменять режим своего функционирования по определенной программе.

Ваш пример с ОС неправомочен, поскольку ОС тоже часть автомата. Прослойка между BIOS (тоже, кстати, программа) и пользовательским софтом. Исполнение какого-либо кода на джаве приведёт к одинаковым результатам, вне зависимости от ОС, как и складывание 2+2.

Должно приводить. Однако подводных камней на этом пути хватает.

По поводу арифметики - тоже хороший пример. Вспоминаем ошибку в плавающей арифметике Р90 (или 75? Уже не помню).

Надо конкретнее определять задачу, чтобы делать выводы. Вообще, почему это вдруг по-вашему статметоды к автоматам неприменимы? Теория надёжности для вас пустой звук? Так на это даже ГОСТ есть.

Не надо передергивать.
Ни по какой теории надежности нельзя применить статистику по какому-нибудь Эпплу, чтобы с достаточной достоверностью оценить надежность ИБМ (это если опять на пальцах).

Автомат действует в зависимости от установленной программы и любые сбои вызваны либо поломкой автомата, что отлично прогнозируется статистикой, либо ошибкой в программе, но это не вина автомата, а ошибка программирования и отладки (тот же ЧФ).

Все верно, с этим я и не спорю.

Идентичные же условия обеспечат идентичный результат для каждого конкретного экземпляра автомата (в отличие от человека).

А вот тут даже сейчас не так.
Если же спроецировать на автоматы будущего, то, по мере приближения функционала автомата к функционалу человека, неизбежно появится неоднозначность реакции. Реакция останется, разумеется, в пределах заданного множества возможных состояний, но предсказать внутри множества уже не получится.
Но я даже не об этом. Я о том, что при достаточной сложности программы, любое ее изменение приводит к тому, что статистически невозможно предсказать ее поведение, нужно набирать статистику заново.

Человек же... Может посчитать, что знает все инструкции, может обмануться, может ещё много что. Как раз к нему теория надёжности малоприменима. Там действуют такие псевдонауки, как психология, социология, соционика, эгономика и ещё дофига чего.

Все эти недостатки появятся и у автомата, когда он будет способен хоть в чем-то продублировать человека-оператора.
И если у человечества эти рамки достаточно хорошо изучены и мало от чего меняются, то для автоматов это не так. Изменение кода, (архитектуры, моделей, отдельных алгоритмов) - и имеем совершенно другой автомат, со своими особенностями поведения. Которые невозможно предсказать по накопленной статистике, даже по этому же самому автомату.


---------- Добавлено в 14:47 ----------


Человек тоже. Набит он сосисками, димедродом, анашой или коксом - поведение разное абсолютно, от интерфейса до реакций.

Однако, взяв любого отдельного человека, можно предсказать, какая у него реакция будет на сосиски, а какая на кокс. С автоматом это не так. Ну, кроме очевидных вещей. Типа, если подать не то напряжение - сгорит. Да и то, могут быть варианты.
 
Я о том, что при достаточной сложности программы, любое ее изменение приводит к тому, что статистически невозможно предсказать ее поведение, нужно набирать статистику заново.
Для этого существует такая наука как тестирование. И совсем необязательно набирать всю эту статистику на физических аппаратах. Есть статистика по существующим узлам и компонентам, есть стендовые испытания, есть матмоделирование. Есть, наконец, тесты. В результате мы можем построить и сертифицировать сложнейший самолёт, (весьма нетривиальный автомат) физически построив всего несколько тестовых изделий.
И несмотря на это, что же мы видим в реале? Самолёты бьются по ЧФ, несмотря за наличие за штурвалом самых опытных пилотов.

По поводу арифметики - тоже хороший пример. Вспоминаем ошибку в плавающей арифметике Р90 (или 75? Уже не помню).
А чем она была вызвана, помните? А помните, на что она влияла? :)
Ни по какой теории надежности нельзя применить статистику по какому-нибудь Эпплу, чтобы с достаточной достоверностью оценить надежность ИБМ (это если опять на пальцах).
Так и о людях то же можно сказать: невозможно оценить надёжность лётчиков по статистике сантехников, несмотря на сходство аппаратной части.


---------- Добавлено в 16:01 ----------


Однако, взяв любого отдельного человека, можно предсказать, какая у него реакция будет на сосиски, а какая на кокс. С автоматом это не так. Ну, кроме очевидных вещей. Типа, если подать не то напряжение - сгорит. Да и то, могут быть варианты.
Как раз, с автоматом это считается несложно. Есть, конечно, сумеречные зоны, но они узки. А вот что будет у человека: бед-трип, или небед, или вообще остановка дыхания - никто гарантировать никогда не сможет. Близкий аналог - анастезиология. Это наука весьма сложная и требует нетривиального учёта множества факторов.
 
Все эти недостатки появятся и у автомата, когда он будет способен хоть в чем-то продублировать человека-оператора.
И если у человечества эти рамки достаточно хорошо изучены и мало от чего меняются, то для автоматов это не так. Изменение кода, (архитектуры, моделей, отдельных алгоритмов) - и имеем совершенно другой автомат, со своими особенностями поведения. Которые невозможно предсказать по накопленной статистике, даже по этому же самому автомату.
Так это ж хорошо. Ради этого всё и затевается. Задача ведь - не законсервировать имеющуюся статистику, а улучшить её.

Однако, взяв любого отдельного человека, можно предсказать, какая у него реакция будет на сосиски, а какая на кокс. С автоматом это не так.
Наоборот. С автоматом можно, с человеком нельзя. Ибо автомат можно склонировать и прогнать его клон через набор тестов, а человека - нельзя.
 
Все эти недостатки появятся и у автомата, когда он будет способен хоть в чем-то продублировать человека-оператора.
Внимательнее к фразам! ;)
Уже сейчас автоматы в очень многих областях не только дублируют, но и заменяют человека-оператора. ;)
 
Реклама
Внимательнее к фразам! ;)
Уже сейчас автоматы в очень многих областях не только дублируют, но и заменяют человека-оператора. ;)

Начиная с автомата управления золотниками паровой машины.

Это не автомат заменяет человека, это человек выполняет функции автомата.
Там, где нужно принимать экспертную оценку - без присмотра человека (пока) не обойтись.


---------- Добавлено в 19:05 ----------


А какая, собственно, исходная?

Ну, вон там, выше по ветке.

Любое изменение в автомате приводит к тому, что нужно проверять его по новой, во всех его проявлениях.
Т.е., если исправили выявленную багу, это совсем не значит, что не сломали что-то из того, что в нем до этого работало. Вплоть до того, что оно могло работать как раз из-за невыявленной баги.

В отличие от обучаемого человека.
 
Там, где нужно принимать экспертную оценку - без присмотра человека (пока) не обойтись.
Точно?


---------- Добавлено в 20:08 ----------


Любое изменение в автомате приводит к тому, что нужно проверять его по новой, во всех его проявлениях.
Т.е., если исправили выявленную багу, это совсем не значит, что не сломали что-то из того, что в нем до этого работало. Вплоть до того, что оно могло работать как раз из-за невыявленной баги.
В отличие от обучаемого человека.
Т.е. заменив в автомате продажи газводы монетоприёмник с советских копеек на российские рубли мне всегда придётся проверять дозатор?
 
Там, где нужно принимать экспертную оценку - без присмотра человека (пока) не обойтись.
Уже ближе.... совсем не
Все эти недостатки появятся и у автомата, когда он будет способен хоть в чем-то продублировать человека-оператора.
Выдерживание заданной скорости автомобиля вне зависимости от скорости ветра, рельефа местности, характеристик дорожного покрытия, это экспертная оценка? ;)
 
Любое распознавание образов это экспертная оценка. Однако, ещё на советских конвертах печатали сеточку для индекса.
 
Вы, уважаемые, обсуждаете проблему позавчерашнего дня. Чтобы сократить дальнейший текст, введу понятие комплекс, состоящий из человека (экипаж или диспетчер) и комплекта оборудования (БРЭО или УВД).
Актуальна проблема взаимодействия этих комплексов, находящихся одновременно в воздухе (множество) и на земле (чаще 1-2). Формирование приоритетов оценки текущей ситуации, приоритета принятия решений и действий, в быстро меняющейся обстановке, вот вопрос вопросов.
На примере одной системы ВС TCAS, которая способна отследить траектории и рассчитать максимальное сближение 30-ти и более бортов относительно носителя системы, понятно что человеку это не под силу, никак.
Кроме того, эта система может просчитать и отобразить человеку маневр по уклонению от столкновения. Для этого из 2 -х TCAS компьютеров методом сравнения "кто новее", выбирается мастер компьютер, который рассчитывает маневр для обоих бортов и передает ведомому готовый сценарий для пилотов (режим RA). Это все очень упрощенно.
В трагедии на Баденском озере произошло вот что. TCAS компьютер рассчитал сценарий для разрешения конфликта и выдал готовые решения для 2-х бортов. Диспетчер же выдал противоположную команду на снижение вместо набора. Пилот имея две разные вводные замешкался и выполнил команду диспетчера.
Диспетчер не компьютер и в результате трагедия. После этого была установлена приоритетность команд TCAS
выше, чем команды УВД. В этом инцинденте учавствовало всего 3-4 комплекса.
 
Предлагаю ваше понятие комплекс расширить до комбинации воздушных и наземных технических систем и операторов и рассмотреть его в виде чёрного ящика.
Тогда все проблемы самосократятся.
 
Предлагаю ваше понятие комплекс расширить до комбинации воздушных и наземных технических систем и операторов и рассмотреть его в виде чёрного ящика.
Тогда все проблемы самосократятся.
Надежность системы определяется надежностью каждого ее элемента. Надежность комлекса вопрос на порядок сложнее. Надежность совокупности комплексов еще на порядок сложнее. Комплексы разного качества и разной надежности постоянно взаимодействуют, комбинаций бесчисленное множество, унификация сравнительно ограничена. От хорошего экипажа на хорошем борту зависит не все, они не одни в небе. Вот что я имел ввиду.
 
Последнее редактирование:
чуднЫе вы ребята, пытаетесь из частных сдучаев выстроить систему, что-то доказать примерами. Нереально это. Надо понять принципы. Проблема человек vs ЭВМ стоит давно, и очень много где. Да, компьютер существенно облегчает работу многих категорий работников. Но... Теория автоматического управления ведет свою историю еще с XIX века. И там есть вопрос устойчивости системы, устойчивости управления. Известен случай, когда солдаты шли по мосту маршем, и он разрушился от резонансных колебаний. Это частный случай неустойчивой системы. Но как ни крути, компьютер в любом случае вырабатывает, генерирует или просто выбирает решение, заранее заложенное человеком. при этом...
Вероятность ошибки автомата падает в процессе совершенствования автомата. Его можно бесконечно перепрограммировать, учитывая всякие ситуации. Перепрограммировать человеков существенно сложнее :)
... так вот, при этом человек в состоянии найти такое решение, какое не вписывается ни в одну программу, ни в какую логику. Ну никто заранее такого не предусмотрел. Ну невозможно предусмотреть все. Стремиться к этому нужно... но это некий недостижимый идеал. Хотите соглашайтесь со мной, хотите нет, но в целом по жизни иногда меня бесит автоматика, которую я не могу отключить. И я вынужден не просто делать свое дело, а делать его, да еще умудриться обойти автомат.. Этот обход иногда требует больше сил, чем само дело.

Да, если это заложено в программу, то автомат скорей всего сделает это лучше человека, но в том и дело, что... если заложено. А если нет? Жизнь непредсказуема.
 
Реклама
в целом по жизни иногда меня бесит автоматика, которую я не могу отключить.
С Вашим подходом к оргтехнике мы уже ознакомлены... :)
Вот например в том убежище, фотки которого я выкладывал, двое ворот, которые не могут открываться одновременно. Неудобно.... Я обошёл автоматику и разрешил это.
Вот только, в случае заражения, при обоих открытых воротах, вентиляция не справится......
Молодец я, или идиот? ;)
 
Назад