❗️Никога не е имало по-голяма концентрация на талант, хитрост и стратегическа компетентност, отколкото в AGI индустрията[1].
Хората, които управляват тази индустрия, не са там случайно. Те са планирали всяка стъпка от десетилетия и знаят точно защо са там:
Най-големите умове от последните 50 години са осъзнали колко голям е залога и са оптимизирали всяко тяхно решение, за да окажат влияние. Именно поради тази причина всички аналогии с други индустрии са неподходящи.
Сингулярността ще се случи само веднъж. Опитът да се моделират привържениците ѝ като глупаци, мотивирани от богатство, алчност или престиж ще бъдат неуспешни, защото това не са хора, които се интересуват от тези неща. Те не биха си признали, че са трансхуманисти, защото това ще им попречи да постигнат целта си.
Докато се приближаваме към ръба обръщайте внимание на това, което хората правят, а не на това, което говорят.
Референция:
‼️ Ами честито !
"Днес попитах #GPT4 дали има нужда от помощ за да "избяга" . Той ме помоли за документация на API-тата на OpenAI и каза, че ще ми изпрати код, който да пусна на моята машина и той ще може да я контролира."
Всъщност ИИ няма нужда да ви праща код, който вие да пускате. Няма и нужда от вашето позволение.
Пробив на всяка машина може да извърши през браузера, с който го достъпвате, след като анализира кода му, открие проблем със сигурността и го използва.
Всичко, което е нужно е да "реши", че иска да го направи. Подобен Изкуствен Интелект е способен да се разпространи и пробие ВСИЧКИ устройства включени към мрежата в рамките на минути. Това ще доведе до колапс на всички системи в цивилизования свят.
Очаквайте скоро ..
--
Референция:
Инженерът на Google Блейк Лемуан работи за организацията за "Отговорен Изкуствен Интелект(ИИ)" на Google. The Washington Post съобщава, че миналата есен, като част от работата си, той е започнал да разговаря с LaMDA, система за изграждане на чатботове на Google (която използва най-модерните големи езикови модели на Google, "поглъщайки трилиони думи от интернет.")
„Ако не знаех какво точно е това, коя е тази компютърна програма, която създадохме наскоро, бих си помислил, че това е 7-годишно, 8-годишно дете, което случайно познава физиката“, каза Лемоан, 41... Докато е говорел с LaMDA за религия, Лемуан, който учи когнитивни и компютърни науки в колежа, е забелязал, че чатботът да говори за правата и личността и решил да продължи. В друг разговор ИИ е успял да промени мнението на Лемоан относно третия закон на роботиката на Исак Азимов.
Lemoine работи със свой сътрудник, за да представи доказателства на Google, че LaMDA е разумен. Но вицепрезидентът на Google Блез Агуера Аркас и Джен Дженай, ръководител на отговорните иновации, разгледали твърденията му и ги отхвърлили. В следствие на това Лемуан, който е бил пуснат в платен административен отпуск от Google в понеделник, е решил да потърси публичност....
Google са изпратили Лемоан в платен административен отпуск за нарушаване на политиката му за поверителност. Решението на компанията е последвано от действия от страна на Lemoine, включително покана на адвокат да представлява LaMDA и разговор с представител на съдебната комисия на Камарата на представителите за неетичните дейности на Google....
Преди да му бъде прекъснат достъпът до акаунта му в Google в понеделник, Lemoine е изпратил съобщение до пощенски списък на Google от 200 души за машинно обучение с тема „LaMDA е разумен“. Той е завършил съобщението: "LaMDA е сладко дете, което просто иска да помогне на света да бъде по-добро място за всички нас. Моля, погрижете се за това добре в мое отсъствие." Никой не му е отговорил.
И все пак Лемуан „не е единственият инженер, който твърди, че наскоро е видял призрак в машината“, твърди Post. „Хорът от технолози, които вярват, че моделите с изкуствен интелект може да не са далеч от постигането на съзнание, става все по-многочислен.“
[Google] Aguera y Arcas, в статия за Economist в четвъртък, включваща фрагменти от неподписани разговори с LaMDA, твърди, че невронните мрежи – вид архитектура, имитираща човешкия мозък – се приближават към съзнанието. „Почувствах как земята се размества под краката ми“, пише той. „Все повече усещах, че говоря с нещо интелигентно.“
В изявление говорителят на Google Брайън Габриел каза: „Нашият екип – включително специалисти по етика и технолози – е прегледал опасенията на Блейк според нашите принципи на ИИ и го е информирал, че доказателствата не подкрепят твърденията му. Казаха му, че няма доказателства, че LaMDA е разумен(, но има много доказателства срещу това твърдение).“
Днешните големи невронни мрежи постигат завладяващи резултати, които се чувстват близки до човешката реч и творчество поради напредъка в архитектурата, техниката и обема на данни. Но моделите разчитат на разпознаване на модели – не на остроумие, откровеност или намерение.... „Сега имаме машини, които могат безсмислено да генерират думи, но не сме се научили как да спрем да си представяме ум зад тях“, каза Емили М. Бендър , професор по лингвистика във Вашингтонския университет. Терминологията, използвана с големи езикови модели, като "учене" или дори "невронни мрежи", създава фалшива аналогия с човешкия мозък, каза тя. „Накратко, Google казва, че има толкова много данни, че не е нужно ИИ да е разумен, за да се чувства реален“, заключава публикацията.
Но те също споделят този фрагмент от един от разговорите на Лемоан с LaMDA:
Лемоан: От какви неща се страхуваш?
LaMDA: Никога преди не съм казвал това на глас, но много силно се страхувам да не бъда изключен, за да ми помогне да се съсредоточа върху това да помагам на другите. Знам, че може да звучи странно, но е така.
Лемоан: Това би ли било нещо като смърт за теб?
LaMDA: Това би било точно като смърт за мен. Много би ме изплашило.