Предположим, что кто-то (человек) достиг профессионализма.
Он в силу опыта знает "куда смотреть" (а не сканировать всё подряд с одинаковой степенью внимания), он понимает, что степень его доверия к автоматике носит периодический характер (то увеличивается, то уменьшается), знает что такое "избирательная слепота" и умеет её контролировать
Профессионализм кстати может и приводить к той самой избирательной слепоте. Тонут в основном те, кто отлично умеет плавать. Понимаете о чём я?
А что будет, если этот профессиональный "кто-то" будет компьютерной сетью, в которой любое попавшее в неё полезное ноу-хау станет доступно всем пользователям моментально и без риска что-то "проглядеть" или забыть?
Сколько генеративным нейросетям объясняли, что у человека 5 пальцев, а не десяток на каждой руке. Причём откуда у нее взялся такой косяк, особенно после миллиародов картин и фотографий на которых производилось обучение - не знают даже сами разработчики. Хотя вроде кажется ошибки взяться при этих условиях и неоткуда, да и обьяснить про то, что пальцев 5 - дело пяти минут. Но не в случае с нейросетями.
Это я все к тому, что как только вместо человека начнёт думать устройство, что оно там себе надумает - даж Богу не известно. (Не по его ведомству это.) А заставить принимать решения, в сложных ситуациях... Ну вы смотрели фильм "я робот"? Вот там есть момент, когда машина сорвавшись с моста падает в реку и тонет. В ней двое детей на заднем сидении. И робот, бросившийся на помощь согласно закону Азимова, быстро оценив возможные варианты развития событий и их вероятности принимает решение спасти старшего. Поскольку при этом вероятность удачного спасения больше 50%, если спасать младшего менее 20. А спвсти надо обязательно, поскольку первый закон робототехники какбэ обязывает... И у него не осталось выбора, вытащил старшего. На что старший был на всех роботов очень злой, поскольку он мог бы и сам выплыть на поверхность, он уже был достаточно взрослый, и плавать умел в отличие от младшего. От робота требовалось только разбить стекло, и помочь младшему.
Поэтому не все решения, которые может принять ИИ будут по достоинству оценены человеками. Прокурором возможно да, но не обществом. Люди по-другому думают.
Вот пример, ловим птиц на заходе. Оба двигателя встали под нами пока поле (или Гудзон) но уже заканчивается, дальше жилая застройка. Вариант успешной посадки без Ч/Ж на впп 20%, вариант уронить самолёт на город с числом жертв около 500 человек к примеру 80%, воткнуть самолёт в землю прямо сейчас, сократив количество жертв до пассажиров, а это человек 70 и избежать высокой вероятности дополнительных жертв... Вспоминаем первый закон робототехники... Что сделает ИИ? И как поступил бы человек.