Нейросети, ИИ и абстрактное мышление

Продолжить обсуждение ИИ предлагаю здесь
 
Реакции: SDA
Подходит Петька к Василию Ивановичу:
- Василий Иванович, подскажи: колеса круглые, рельсы прямые, а поезд стучит. Как так?
- Это, Петька абстрагироваться надо!
- Как это?
- Вот смотри:
Вагон нам не интересен - от него абстрагируемся
Колес 8, но они одинаковые - абстрагируемся рассматриваем одно
Колесо это круг. Площадь круга П*r^2. П - постоянна - абстрагируемся. r - то же неизменный -и от него абстрагируемся. Остается квадрат. Вот он и стучит!

А если серьёзно, предлагаю перенести обсуждение во вновь созданную ветку
Просьба к модераторам: перенесите туда уже начавшееся обсуждение
 
Откуда вы взяли, что у ИИ обязательно должно быть "абстрактное мышление", "самосознание" и т.п.? Нет такого.
И самообучение тоже быть не обязано. Просто такая реализация ИИ - без самообучения.

Сравнение ИИ с животными и человеком не совсем корректно, ставит надуманные ограничения.

По поводу "и в намеке его нет и на горизонте" известна старая формула: "Если что-то выглядит как человек, ведёт себя как человек, общается как человек - это и есть человек". Т.е. сильный ИИ (не говоря о сверх ИИ) может иметь свой тип абстрактного мышления, отличный от человеческого.
 
Надо бы сюда перетащить из ветки про ПАК ФА.
 
Если вы говорите про свой тип абстрактного мышления, то это уже НЕ "как человек"

Однако абстрактному мышлению учат - оно не само собой развивается. Вероятность зарождения нового типа абстрактного мышления при старых учителях не велика
 
Нет такой старой формулы - Вы ее выдумали на ходу.
Речь в формуле шла об утке (называется утиный тест) - а она от человека отличается не только количественными параметрами.
 
Редакция 21 века: если нечто выглядит как утка, плавает как утка и крякает как утка, то это, возможно, фейк, созданный нейросетью
#ау
 
Не выдумал, а переложил.
Но суть та же: если внешне возможности ИИ быстро приближаются к человеческим, то надо думать, что с этим делать, а не игнорировать пренебрежительно под предлогом отсутствия у него внутри самосознания и абстрактного мышления.
 
Оно внутри не как человек, а снаружи вполне может быть как человек, если поставлена такая задача.
И в этом случае какая разница, что внутри?
Как раз наоборот, возможность абстрактного мышления - это свойство человеческого мозга, возникшее в результате положительной мутации 70-30 тыс.лет назад.

Некоторые исследователи считают, что у ChatGPT-4 уже возникло что-то типа абстрактного мышления просто ввиду колоссальной мощности нейросети и сложных задач при обучении.
 
если поставлена такая задача.
Кем поставлена?
Есть такая гипотеза.
Однако разговор не о том:
Возможность и реализация - совсем не одно и то же.
реализация абстрактного мышления у человека "выращивается" при его обучении и воспитании. Начинается оно "со сказки про колобка". (У многих там же и остается) На этом этапе происходит наделение обыденной сущности, признаками оной сущности не свойственными. Т.е. по факту это не столько абстрактное мышление сколько "переопределение" объекта привязки (человеческие качества присваиваются плюшке).
Следующий этап - способность оперировать не величинами и объектами, а понятиями (грубо - решение задач не в числовой форме, как склонны дет, а в виде формул). Это уже старшая школа. При дальнейшем обучении происходит переход на более высокие уровни абстракции.
"вращаясь" в человеческом обществе, на материалах "скармливаемых" человеком, ИИ вряд ли сможет развить принципиально другой тип абстрактного мышления.
 
Последнее редактирование:
Я делаю вывод, что скан отпечатка пальца или сетчатки глаза скоро перестанет быть надёжной защитой от взлома.
 
Реакции: SDA
Вы пытаетесь подойти к вопросу с точки зрения диамата, который отнюдь не является истиной в последней инстанции. Возможности ИИ с позиций формальной логики действительно велики - но с этих позиций Москву надо было сдавать в октябре 1941, не говоря о Питере. И не надо разделять эти ситуации с техническими проблемами.
 
кому надо? С какой целью?
Если говорить о логике, (хоть формальной хоть нет) решение строится исходя из целей.
Если же у вашей логической цепочке нет решения соответствующего цели, а кто то его нашел, значит вы для построения взяли неверные исходные данные
И это таки формальная логика
Что же касаемо ИИ, то сейчас ни кто не может реально оценить его возможности, тем паче ту "соломину", которая позволит ему перейти к абстрактному мышлению. Учитывая скорость развития вычислительной техники и объемы информации перелопачиваемые при обучении ИИ предсказать когда это случится крайне сложно
 
Правда?
А если целеполагание в процессе самообучения изменится с точностью до наоборот - какая разница: верны, или неверны были исходные данные?
Поезд-то ушел.
А без самообучения это никакой не интеллект, а просто программируемое устройство.
 
И все таки,
Ну как бы мы же обсуждаем, это у нас ИИ или просто искуственный мозг, и если последнее то чей.
По мне это уровень пока - насекомые и кенгуру. Там даже до белого медведя как до Луны пешком.

- обучения игрой - нет практически.
- интеграции знаний из разных источников (в природе - часть например медвеженок получит от мамы часть от природы) нет

А у людей еще и абстрактное мышление и язык появились. Чего у этих нейросетей нет и в намеке.
С другой стороны, сделать мозг пчелы настроенный на что то нужное военным - и его реплицировать в военные устройства - вполне реально. А вместо генетики и Дарвина будет где то большая обучающаяся нейросеть в которую будем грузить задним числом данные полученные с оных военных. То есть обучение будет отделено от использования (как у насекомых во многом, хотя там есть адаптация - что тоже может быть реализованно, но это именно что адапатация - например _тут был мед, значит запоминаем дорогу к этому меду и передаем пчелам в улье танцем что лети за мной там много меду_ - меняем _пчела -> дрон, мед ->танк_ и вперед.)
Ну вот у нас бегают тут безэкипажные такси. ПО Сан Франциско. В общем не работает все это. Да, они могут бегать. МОгут чему то обучиться. Могут проехать из точки А в точку Б. Но... все время возникаю ситуации _необычная ситуация и оные самобеглые повозки заблокировали перекресток и встали_. Плюс к тому им недоступен контекст _жаркий день - много подростков в шортах - на перекрестке группа - а вчера в газете написали что подростки соревнуются в перебегании дороги - нужно иметь это в виду_. Человек все эти данные вместе интегрирует и может делать выводы (без обучения методом _сунул лапу в огонь - стало больно - запомнил что лапу в огонь совать не надо_ а методом _подумал абстрактно и понял что _ситуация такая то_) а нейросетям до этого еще бесконечно далеко.
И вторая проблема - я упоминал. Нейросеть может многое например может распознавать _мужчина женщина ребенок_ (можно обучить долго стараясь если правильно нижний уровень сразу настроить - обучением его создать не удается /нижний уровень в мозгу - превращает пиксели в фигуры и уже их подает на анализ, тоже самое сделали в нейросетях когда наигрались с попытками настроить этот уровень обучением... сделали вручную и сразу дело резко улучшилось, оные _человек - страус_ ситуации стали много реже) но вот получить у нейросети объяснение _почему она так решила_ практически невозможно. И это еще одна их (нейросетей) проблема.
Так что наше все - метод насекомых.
 
Здесь вы несколько не правы.
У пчелы нет "летим за мной" Она своим танцем передает координаты. ХЗ как она это делает.
Однако вряд ли это можно считать обучением, это скорее инстинкт, хоть и весьма сложный.
Обучением было бы осознанное поведение. К примеру попытка соотнесения рисков и прибылей если пчела нашла мед, но к примеру, сильно обожглась посылать туда сотоварок не стоит. Но этот вывод пчела сделать не может. Ее можно "третировать" сколько угодно. Она вернется пустая (т.к. в процессе тот мед сожгла), НО местоположение все одно укажет.
Максимум обучения на которое хватает пчел - найти улей, если его передвинули сантиметров на 30.(Больший сдвиг часто оказывается фатальным) При чем пчелы сначала летят по старой координате, там летка не находят, долго крутятся, и попадают в улей "методом художественного тыка". Ни распознать леток по внешнему виду,, ни понять куда летят все остальные, пчела не может. Более того, вылетев из сдвинутого улья она вернется на старую координату. Даже если улей утащить за пару километров. Потому как команды "перепрошивки базовой точки" не поступало...
 
Последнее редактирование:
Если вы делали заколку для волос, а получился табурет, вряд ли в этом виноват диамат. Куда вероятнее ошибка в исходных данных.
И если заколка вам все еще нужна, то коррекции надо вносить все же не в Марксизм...
 
И тут Остапа понесло...
Подумали бы, чтобы не писать чушь.
 
Если исходные данные полные и непротиворечивые, то логическое решающее устройство даёт ответ. В противном случае нужно оценивать все возможные решения и выбирать из них подходящее по заданным критериям. Если это ИИ, то критерии могут быть весьма расплывчатыми. Например, "нравится - не нравится".