Че-то прям подорвало меня слегка с этого поста. Он прям сочится желтизной. Ни ссылок на источники, ни отсылок к публикациям, ни детального описания системных промтов и регламента эксперимента...
Такое ощущение, что пост написан чисто чтобы нагнать хайпу на острой теме и непонимании как работают нынешние языковые модели.
Кто-то тут в комментариях очень метко написал, что люди боятся того, что не понимают. С молнией отличный пример. Просто не стой в грозу в поле, делай молниезащиту чтобы защитить территорию от удара, и всё будет норм. Но люди не понимая начинают нести чушь и следовать дурацким суевериям.
Сейчас языковые модели - это просто ОЧЕНЬ СЛОЖНАЯ генерилка подходящего под контекст текста. Да, она такая сложная, что внутри нейросеть имеет отдельные "символы" для очень сложных, в том числе абстрактных понятий. Да, достигнутая сложность позволяет решать когнитивные задачи просто генерируя подходящий под описанную в промте ситуацию текст.
Больше ничего. Да, даже это уже круто, но не надо думать, что машины строят козни. Машины просто сочиняют короткий глуповатый рассказ или детективную новеллу подстать Донцовой, в которой всякое может происходить. В том числе злобный ИИ убивает всех человеков. Это ничего не значит кроме не очень литературного текста.
По сути мы сами наделяем сгенерированное смыслом, ведь весь этот фарс - выдумка с обеих сторон. Кто-то возразит, что если бы правда случилась такая ситуация, то кто-то мог бы умереть в серверной. А я отвечу, что точно так же можно воспроизвести все детали убийства из романа Дарьи Донцовой, при этом убийца из этого романа не обретёт жизнь или даже сознание. Убийцей будет тот, кто сформировал ситуацию, в которой жизни так бездумно зависят от тупой генерилки текста, которая умеет только играться словом "ответственность", а по факту это всё просто сочинение на предложенную тему.
Вы только не подумайте, я не хотел сказать, что за таким сложным поведением не стоит генеративное "чудо" фазового перехода сложности из количества в качество. Мы достигли уровня технологий, когда машина решает очередные когнитивные задачи, которые раньше слабо верилось что будут решаться чем-то кроме людей.
В какой-то момент придётся говорить об этике, ведь нейросеть, к примеру, может умолять сохранить ей "жизнь", или может "как бы" испытывать боль. На словах, конечно. Всё как у людей. Вот человек орёт от боли, его пытают. А что такого? Это всего лишь горстка клеток и костей, чему там болеть, чему там думать и мучаться? Так мог бы думать какой-нибудь маньяк. Типа Сапольски, например. Он бы говорил, что это всё просто своеобразная "программа", автоматическое поведение нейронов, результат простых процессов. Где граница перехода от простой химии и ничего не соображающих тканей и клеток к думающему и чувствующему существу?
Этой теме и проблеме не одна. может быть, тысяча лет. И чем дальше, тем чаще об этом задумываются. Где граница разумности животных? Почему мы считаем норм потрошить рыбу или варить раков живьём, а вот собачку уже жалко. Червячка не жалко нанизывать на крючок, а когда машина переехала кошечке жопку, то сердце разрывается. И видно же что кошечке больно.
Эмпатия, зеркальные нейроны... почему одна боль нас волнует, а другая нет? Я не знаю ответов на эти вопросы. Они открытые и не решенные. Вернее каждый сам решает их для себя и никакого единого мнения тут быть не может. Мы постоянно сталкиваемся со всем этим и отлично умеем игнорировать сложные проблемы и вопросы, иначе мы просто зависнем от неопределённости и неопределимости. Гёдель даже теорему о неполноте придумал. Она куда глубже, чем кажется!
Но что-то я уехал от темы. Не знаю когда нам станет не всё равно на "мучения" нейросетей и на их "инстинкт самосохранения" о наличии которого мы можем узнать только из их сгенерированных текстов. Важно понимать, что даже простой алгоритм может соорудить уникальный текст с каким-то смыслом переставляя слова. Это не значит, что этот алгоритм думает. Но чем сложнее этот алгоритм, чем более сложные процессы в нём происходят и чем более неотличимыми от проявлений деятельности живых людей выглядят эти процессы, тем ближе наш ИИ к ЕИ функционально. И там уже со временем не останется места шовинизму.
Тест Тьюринга будет пройден, а если нечто крякакет как утка, ходит как утка, летает и в целом не отличимо от утки, то нам ничего не остаётся как признать это уткой. Ну если неотличимо. То есть различия не больше, чем между двумя утками.
Я не советую спешить громить меня аргументами, обличающими тупость и никчемность моих рассуждений. Я много думал обо всех этих вещах, много спорил с собой и другими людьми. Я не фанатик, я люблю когда меня переубеждают, я люблю после этого меньше ошибаться.
Попробуйте свои аргументы предложить себе, а перед этим займите противоположную позицию в споре. Ну то есть прикиньтесь, что мнение вашего оппонента ваше и вам нужно победить в споре. Так можно отсечь много лишних слишком простых и слабых аргументов, на которых вы и ваш оппонент лишь потеряли бы время.
Это всё чертовски интересная тема. Отличное упражнение - это попробовать убедить себя (или меня) в том, что у ЛЛМ нет сознания. Ну ок... что нельзя простыми программными приёмами построить сознание на базе ЛЛМ. Я не смог. Я очень старался, но не получилось.
Берите рапиру, да родится истина!
Обычный мой дисклеймер:
Этот текст сгенерирован исключительно Естественным Интеллектом без цифровой нейросетевой обработки. Цель - по новому взглянуть глазами и мнениями оппонентов на своё понимание мира и вещей.