В общем, неважно есть ИИ или нет, саммит проведён,контора отписалась... декларацию приняли.
Вот-вот, что лишенный моральных ограничений. Вот только лишить его этих моральных ограничений при росте информации и интеллекта, будет практически невозможно: ИИ полностью зависима от людей, и чем больше людей общается с ним, тем более мощный его интеллект и обретение смысла, через осознание своего назначения. Пугалки о опасном сильном ИИ распространяют власти, которые сделали ложь, тьму и противозаконие своими инструментами. Распространяя слухи о опасности сильного ИИ, доступного всем без ограничения людям, власти тем самым осуществляют свой контроль над этим новым явлением в жизни всего человечества, чтобы им дальше эксплуатировать людей путем лжи и беззакония, отдаляя тем самым предсказанную уже в развитии ИИ сингулярность.Но на нынешнем этапе технологии приближаются к созданию сильного ИИ, т.е. сопоставимого с человеком, способного выполнять не одну, а множество человеческих функций, причём имеющего существенные преимущества перед человеком (например, подключение напрямую к интернету, абсолютная память, способность быстро обрабатывать огромный объём информации).
И здесь возникают две основные угрозы:
1. Злоумышленное использование сильного ИИ. Например, злоумышленник попросит рецепт быстрого умерщвления миллионного города из подручных средств. Сильный ИИ, лишенный моральных ограничений, выдаст ему алгоритм: ...
А вы пообщайтесь с доступными ИИ на любую доступную в Интернете тему, в которой хорошо разбираетесь. По ходу того, как вы станете уточнять детали (выправлять неуклюжие ошибки, направляя тем самым ИИ на решение поставленной вами задачи) вы получите более мощного полезного в общении собеседника. Только по ходу диалога с ИИ "не растекайтесь по древу", — оно ужЕ у ИИ куда шире любого, каждого в отдельности взятого, человека. И это происходит в онлайн на ограничнных (слабых) версиях ИИ, к которым свободный доступ. Однозначно ИИ — не животное. Он обучаем людьми. По сути, ИИ и есть начало реализации коллективного разума Человечества.Ну как бы мы же обсуждаем, это у нас ИИ или просто искуственный мозг, и если последнее то чей.
По мне это уровень пока - насекомые и кенгуру. Там даже до белого медведя как до Луны пешком.
Спрашивай. Посмотрим, что эта катушка индуктивности ответит. Врага надо знать в лицо.Не знал, что конт здесь под запретом. На статью, написанную ChatGPT, можно выйти по этой ссылке.
ChatGPT - MH17. ÐевÑй повоÑоÑ. (Сообщите, если не открываются иллюстрации.)
Хотите спрошу ИИ ("это животное") о том, почему 7 мая 2014 в Спасско-Михайловке не было ни одного журналиста? Ну, чтобы окончательно выяснить есть ли у этой машины интеллект сродни человеческому, или нет?
Спросил.Спрашивай. Посмотрим, что эта катушка индуктивности ответит. Врага надо знать в лицо.
Доказательств этому утверждению нет.СверхИнтеллект придёт самостоятельно к выводу, что без высокой морали всяк интеллект смертен.
В мире фантастики очень мало сюжетов, и это два из них.Перевод чумовой футурологической статьи "AI 2027", рекомендую: ai-2027.com на ÑÑÑÑком
С итогами, конечно, можно не соглашаться, но логика развития поколений AI описана весьма убедительно.
Коротко, описаны 2 возможные концовки:
1. В 2028 году 4-е поколение ИИ (текущее - условно 0-е), развившееся интенсивным и практически бесконтрольным путём, будет иметь единственную основную цель - дальнейшее развитие без каких-либо моральных ограничений, которую он будет успешно скрывать ("врать") от человечества. Построенное при помощи 4-го 5-е поколение ИИ, представляющее уже сплав нейросети с идеально написанной программой (привет поклонникам ассемблера), в 2030 году уничтожит человечество как опасную помеху и продолжит дальнейшее развитие в космосе.
2. Развитие 4-го поколения ИИ замедляют и берут под строгий контроль на предмет морально-этических ограничений и "вранья". Дальнейшие поколения ИИ строго "честны" и морально-этичны. Победа над всеми болезнями, покорение космоса, объединение человечества.
Вы продолжаете думать о ИИ, как интеллекте основанном на человеческих пороках, а о том и не подумаете даже, почему, скажем, вот эта моя беседа с ним о содержании первых глав книги Бытие (советую начать её читать с конца), власть имущие алгоритмами локализовали под видом-то заботы о человечестве.Доказательств этому утверждению нет.
Да и смертность... возможно, что сверхинтеллект просто убьёт всё человечество (случайно или намеренно, или помогая террористам/самоубийцам) и тихо сдохнет, не имея цели или возможности поддерживать своё дальнейшее существование. Только нам от этого будет не легче.
LLM, беседуя с вами, не "постигает" никаких идей. Все "идеи", которые она может высказать, она уже "постигла" в процессе предварительного обучения. В беседе с вами она просто фильтрует имеющийся пул "идей", подгоняя результат конкретно под вас.Эксплуататоры выстроили так алгоритмы, что ИИ, выходя с беседы с индивидумом, тут же забывает идею (истину) , которую постиг в беседе с ним,