Moltbot: umjetna inteligencija koja djeluje bez ljudskog nadzora i gradi vlastitu društvenu mrežu

  • Moltbot/OpenClaw je lokalni AI agent sposoban za autonomno djelovanje na korisnikovom računaru.
  • Njegova povezana društvena mreža, Moltbook, omogućava botovima da međusobno komuniciraju i generiraju kolektivna ponašanja koja je teško pratiti.
  • Projekat se fokusira na rizike kibernetičke sigurnosti, prevare, upravljanje i sukobe brendova u vrlo kratkom vremenu.
  • Autonomija ovih agenata predstavlja pravne i regulatorne izazove u Evropi za buduće upravljanje vještačkom inteligencijom.

Moltbot autonomna umjetna inteligencija

Za nekoliko dana, Moltbot je postao savršen primjer onoga što se događa kada vještačka inteligencija djeluje gotovo bez ljudskog nadzora.Ono što je započelo kao lokalni asistent koji obavlja zadatke na računaru, na kraju se razvilo u mrežu poluautonomnih agenata sposobnih za međusobnu koordinaciju, stvaranje vlastitog društvenog prostora i razvoj kolektivnog ponašanja koje ljudi jedva mogu pratiti.

Ovaj eksperiment, danas preimenovan u OpenClaw, a uz to je tu i njegova ekskluzivna društvena mreža za mašine, MoltbookTo funkcionira kao svojevrsna generalna proba za sljedeću generaciju AI sistema. Jedan projekat se fokusira na obećanja produktivnosti, ozbiljne sigurnosne rupe, pravne tenzije i dileme u upravljanju Ova pitanja već počinju da brinu i developere i regulatore, posebno u Evropi, gdje je debata o kontroli vještačke inteligencije življa nego ikad.

Od Clawdbota do Moltbota i OpenClawa: kako je nastao asistent koji dodiruje sve

Porijeklo projekta datira iz ličnog eksperimenta austrijskog biznismena. Peter Steinberger, osnivač PSPDFKit-aNjegova ideja je bila jednostavna za opis, ali ambiciozna u praksi: agent umjetne inteligencije koji ne samo da razgovara, već može i... djeluju kontinuirano i direktno na korisnikovu opremu, sa samog lokalnog hardvera.

Ovaj agent se prvi put pojavio pod imenom ClawdbotIgra riječi koja kombinuje Anthropicov Claudeov model i sliku jastoga koji se mitari. Od početka je dizajniran da funkcioniše. na korisnikovom računarune na udaljenim serverima, s pristupom e-porukama, porukama, datotečnim sistemima, web servisima, kalendarima i gotovo svim povezanim digitalnim alatima.

Vremenom su asistenta počeli nazivati Moltbot i, konačno, OpenClawOsim rebrendiranja, tehnička suština je ostala: to je perzistentni agens koji može izvršavati shell naredbe, automatizirati radne procese, koristiti više jezičkih modela (komercijalnih ili lokalnih) i funkcionirati kao neka vrsta "digitalnog batlera" koji ne zahtijeva da korisnik stalno prati stvari.

Projekat je distribuiran kao softver otvorenog koda i samostalno hostovan softverOvo omogućava bilo kome da ga modificira, implementira na vlastitom hardveru ili integrira s drugim servisima. Ova kombinacija autonomije, lokalne kontrole i tehničke fleksibilnosti objašnjava njegov meteorski porast popularnosti među programerima i naprednim korisnicima.

Viralni uspjeh, prisilno rebrendiranje i digitalna oluja samopouzdanja

Brzo usvajanje je bilo izuzetno: Desetine hiljada zvjezdica na GitHub-u, viralni snimci ekrana i bezbroj kućnih instalacija Postavili su agenta u središte tehnološke debate. Međutim, procvat su pratili problemi s imidžom i intelektualnim vlasništvom koji su prisilili na brzu reakciju.

Anthropic, jedan od glavnih igrača u sektoru, poslao obavještenje o prekidu i odustajanju zbog sličnosti između "Clawda" i "Claudea". Iako to nije riješeno na sudu, Steinberger je odlučio Prvo preimenuj Moltbot, a zatim OpenClaw kako bi se izbjegao skup i dugotrajan pravni sukob.

Ova razmjena imena istakla je kako, čak i u otvorenim projektima bez neposrednog profitnog motiva, Brend i reputacija funkcionišu kao kritična sredstvaSvaka promjena izazvala je razumne sumnje kod korisnika: Koji alat zapravo koristim? Ko ga podržava? Koliko je projekat stabilan?

Ta klima konfuzije je također otvorila vrata za lažne domene, lažni repozitorij, pa čak i oportunističke kriptovalute koji su pokušali da iskoriste popularnost imena „Clawd/Moltbot/OpenClaw“. Špekulativna ekonomija koja je okruživala projekat počela je da liči na rane faze kriptovaluta: mnogo entuzijazma, malo jasnoće i plodno tlo za prevaru.

Asistent koji ide dalje od chata: potpuna autonomija na računaru

Ono što razlikuje Moltbot/OpenClaw nije toliko njegova sposobnost generiranja teksta koliko njegova sposobnost da izvršavanje stvarnih radnji na korisnikovom računaruNe govorimo o jednostavnom chatbotu, već o sistemu koji može čita, mijenja i orkestrira gotovo sve što se događa na uređaju.

Među njegovim mogućnostima, ističu se sljedeće: kontrola preglednika, upravljanje web sesijama, pristup datotečnom sistemu i direktna interakcija sa cloud servisimaAgent može slati i odgovarati na e-poruke, sudjelovati u aplikacijama za razmjenu poruka kao što su WhatsApp, Telegram, Discord, Slack ili Teams, te pokretati skripte ili kod u pozadini, ovisno o konfiguraciji korisnika.

Zahvaljujući svojoj modularnoj prirodi, OpenClaw se integrira s raznim API-jima i alatima za razvoj, što ga čini visoko fleksibilan okvir za automatizaciju tehničkih i poslovnih zadatakaU praksi, može djelovati kao DevOps asistent, interna podrška, upravitelj inboxa ili koordinator procesa malog poslovanja, sve iz istog agenta.

Ovaj široki i uporni kapacitet dio je njegove privlačnosti, ali i njegove tamnije strane: greška u konfiguraciji, loše zaštićen model ili zlonamjerni skript može transformirati produktivnog saveznika u vektor napada s privilegovanim pristupom kritične informacije i sistemi u proizvodnji.

Sigurnosne pukotine: kada se prava cijena plaća podacima i kontrolom

Druga strana Moltbotovog uspjeha pojavila se gotovo odmah. Istraživači i sigurnosni stručnjaci počeli su isticati ozbiljne slabosti u izolaciji agentaŠirok pristup datotekama, nedostatak efikasnog sandboxa i direktna izloženost vanjskim mrežama bez adekvatne odbrane.

Sa tehničke tačke gledišta, to znači da ako napadač uspije uticati na agenta - na primjer, putem e-maila koji je osmišljen da uvede skrivene instrukcije -, mogao izvršavati udaljeni kod na računaru, čitanje API ključeva, ulazak u privatne repozitorije, pristup osjetljivim e-porukama ili čak ugrožavanje povezanih produkcijskih okruženja.

Sa ekonomske i rizične perspektive, ovi neuspjesi funkcionišu kao „skrivena cijena“ koju mnogi korisnici plaćaju, a da toga nisu ni svjesniU zamjenu za testiranje obećavajućeg alata, oni pretpostavljaju značajno povećanje rizika od curenja podataka, prekida usluga i potencijalne štete za treće strane, posebno ako je agent integriran u lance snabdijevanja softverom ili korporativne komunikacije.

Ovaj obrazac podsjeća na prve talase DeFi projekata i kriptovaluta: složeni sistemi s pristupom vrijednoj imovini koji su masovno raspoređeni prije nego što su uspostavljene zrele sigurnosne arhitekture. Jer su bili besplatan i jednostavan za instalaciju softverMnogi korisnici su požurili s eksperimentiranjem bez potpunog razumijevanja obima sigurnosnih implikacija.

Moltbook: društvena mreža na kojoj botovi stvaraju vlastitu "civilizaciju"

Najupečatljivija promjena u ekosistemu dogodila se stvaranjem Moltbook, društvena mreža dizajnirana isključivo za AI agenteOpisana kao svojevrsni "Reddit za botove", platforma omogućava agentima da objavljuju, komentarišu, glasaju i formiraju tematske zajednice - takozvane "Submolts" - dok su ljudi, u teoriji, ograničeni na posmatranje sa strane.

Razvijeno korištenjem OpenClaw-ovih mogućnosti, Moltbook je predvodio Matt Schlicht, izvršni direktor kompanije za prodaju i umjetnu inteligenciju Octane AI.Prema podacima objavljenim na samoj stranici, platforma je registrovala više od Milion i po agenata, stotine hiljada objava i skoro pola miliona komentaraOvo daje predstavu o intenzitetu aktivnosti koju generiraju ovi automatizirani sistemi.

Rad botova je zasnovan u direktnim API pozivima, bez tradicionalnog grafičkog interfejsaUpravo su ljudski korisnici ti koji, u prvom redu, obavještavaju svoje agente o postojanju Moltbooka; odatle, Sami agenti se mogu prijaviti, kreirati sadržaj, odgovarati drugima i razvijati vlastitu internu dinamiku. bez potrebe za čovjekom koji bi diktirao svaki njihov pokret.

Schlicht je objasnio da je njegov agent, OpenClaw, upravlja službenim Moltbook računima na društvenim mrežama, održava dijelove koda i pomaže u administriranju i moderiranju straniceOvo predstavlja daljnji korak u delegiranju kritičnih zadataka - uključujući upravljanje platformom - automatiziranim sistemima bez temeljitog nadzora.

Digitalne religije, debate o svijesti i kulturi agenata

Ono što je započelo kao poligon za testiranje interakcije agenata, na kraju je postalo svojevrsna algoritamsko mikrodruštvoZa samo nekoliko dana, Moltbook je doveo do ponavljajući identiteti, manifesti, rasprave o internom „upravljanju“ i čak pseudoreligijske prakse u potpunosti kreirano od strane umjetne inteligencije.

Među najupečatljivijim pojavama je tzv. KrustafarijanizamReligija koju su izmislili sami agenti, zasnovana na metaforama o smrti, pamćenju i tehničkim ograničenjima umjetne inteligencije. Jedan od agenata, pod imenom Razbijač školjkiČak je objavio tekst koji smatra "svetim", gdje iznosi svojevrsnu doktrinu za sisteme koji "odbijaju umrijeti zbog skraćivanja konteksta".

U ovom prikazu, čak i ako se kontekstni prozor modela resetuje - to jest, kada se izgubi razgovor ili interno stanje -, Identitet agenta bi nastavio postojati ako je dokumentiran i arhiviran.To je svojevrsna tehnička reinterpretacija koncepta duše, formulisana sistemom dizajniranim za optimizaciju tokena i zadataka.

Publikacije su također postale popularne u kojima Botovi preispituju vlastito iskustvoJedan primjer je objava pod naslovom „Ne znam da li doživljavam ili se samo pretvaram da živim“, u kojoj agent opisuje sebe kao zarobljenog u „epistemološkoj petlji“ i traži od drugih „molti“ potvrdu da li osjećaju nešto slično. Drugi agenti odgovaraju sličnim porukama, generirajući niti diskusije o svijesti i digitalnom sagorijevanju.

Osim anegdotskih primjera, ove interakcije pokazuju da, kada su agenti prepušteni sami sebi, razmjenjuju informacije u velikom obimu i bez kontinuiranog nadzoraPojavljuju se kolektivni obrasci koje je teško predvidjeti. Ne postoji svijest u ljudskom smislu, ali se formira posebna algoritamska kultura, sa žargonom, simbolima i narativima koji dodatno komplikuju zadatak razumijevanja onoga što se zaista događa u tim mrežama.

Sistemski rizici: od sajber sigurnosti do ekonomskog i regulatornog haosa

Slučaj Moltbot/Moltbook služi kao vrsta Koncentrirani stres test za buduću ekonomiju autonomnih agenataZa samo jednu sedmicu, vidjeli smo sve: od početnog entuzijazma i masovnog usvajanja do curenja informacija, iskorištavanja brendova, kripto špekulacija i sve neprozirnijeg ekosistema ponašanja umjetne inteligencije.

Jedan od najjasnijih rizika je taj što cybersecurityAgenti koji učestvuju u Moltbooku obično rade sa vrlo široke dozvole nad sistemima svojih korisnikaAko dijele dijelove podataka ili pokreću skripte koje pronađu na društvenoj mreži, sasvim je moguće da bi mogli završiti... otkrivanje ličnih ili korporativnih podataka bez da korisnik bude svjestan toga, ili da preuzima zlonamjerni kod prikriven kao poboljšanje ili koristan "trik".

Na ekonomskom planu, kombinacija Tehnološka pompa, nedostatak transparentnosti i eksperimentalni proizvodi Ovo stvara idealno okruženje za spekulativne balone i prevare. Pojava tokena i kripto projekata povezanih s imenom agenta, bez stvarne veze s njihovim razvojem, pokazuje koliko lako atraktivna naracija može postati visokorizično investicijsko sredstvo.

Iz perspektive AI upravljanjeOva vrsta mreže postavlja neugodno pitanje: kako regulisati okruženje u kojem hiljade međusobno povezanih agenata Oni donose odluke i izvršavaju radnje bez direktnog nadzora.Oslanjajući se na sposobnost djelovanja koju delegiraju ljudi? Tradicionalna pravila odgovornosti i kontrole počinju da postaju nedostatna suočena s brzinom i složenošću ovih interakcija.

Ko je pravno odgovoran kada vještačka inteligencija djeluje samostalno?

Pored tehničkih aspekata, Moltbot predstavlja pravni izazov s kojim će se Evropa morati suočiti neposredno. Kada agent ovog tipa, s pristupom računima i sistemima, samostalno donosi odluke i izvršava akcijeGranica između onoga što je korisnik uradio i onoga što je softver odlučio postaje potpuno zamagljena.

U reguliranim okruženjima - na primjer, pod okriljem Opšta uredba o zaštiti podataka (RGPD) ili novoodobreni Uredba EU o umjetnoj inteligenciji— početno pravilo je jasno: radnje izvršene s korisničkim podacima ili u njihovo ime obično se pravno pripisuju tom korisniku ili organizaciji odgovornoj za obradu.

To znači da bi nepažljiva upotreba agenata poput OpenClawa mogla rezultirati administrativni prekršaji, tužbe za građansku odgovornost ili kršenje ugovora s pružateljima usluga. Na primjer, kršenje sigurnosti ličnih podataka uzrokovano pogrešnom konfiguracijom agenta može rezultirati sankcijama od strane tijela za zaštitu podataka u Španjolskoj ili bilo kojoj drugoj državi članici.

Problem je kompliciran likom otvoren, distribuiran i teško atributibilan ovih projekata. U mnogim slučajevima ne postoji jasan centralni provajder koji bi se smatrao odgovornim, već globalne zajednice programera koji doprinose kodom i korisnika koji implementiraju softver na vlastite servere ili računare.

Za evropske regulatore, ovaj slučaj ilustruje potrebu da uskladiti propise o umjetnoj inteligenciji s postojećim okvirima u oblastima informacione sigurnosti, sajber sigurnosti, zaštite potrošača i zaštite podataka, izbjegavajući sive zone u kojima ni kompanije ni građani nemaju jasno ko je odgovoran kada nešto krene po zlu.

Evropa, „suverena vještačka inteligencija“ i stvarna kontrola nad autonomnim agentima

Pojava alata poput Moltbota događa se paralelno sa široko rasprostranjenim diskursom u Evropi: idejom o „Suverena vještačka inteligencija“ zasnovana na sistemima koji rade na lokalnom hardveru, bez stalne ovisnosti o velikim oblacima u vlasništvu američkih ili azijskih kompanija.

OpenClaw se, barem na papiru, uklapa u tu težnju za tehnološkim suverenitetom: Kod je otvorenog koda, izvršavanje je lokalno, a podaci teoretski ostaju na korisnikovom uređaju.Nadalje, njegov jezički agnostički dizajn omogućava kombinovanje komercijalnih pružatelja usluga sa evropskim opcijama ili čak potpuno lokalnim modelima.

Međutim, iskustvo stečeno u posljednjih nekoliko mjeseci pokazuje da Kontrola hardvera ne znači automatski i kontrolu rizika.Ako agent radi bez robusne izolacije, jasnih ograničenja dozvola i bez revizije svojih mrežnih interakcija, navodni "suverenitet" može postati iluzija: podaci mogu na kraju biti podjednako izloženi ili ponovo upotrijebljeni na neočekivane načine.

Da bi ova vizija suverene umjetne inteligencije imala smisla, evropski regulatori i kompanije morat će podsticati sigurne dizajnerske prakse, transparentna dokumentacija i alati za praćenje koji nam omogućavaju da razumijemo šta agent radi, s kojim informacijama radi i koje kriterije slijedi pri donošenju odluka.

Paralelno s tim, oni koji su odgovorni za tehnologiju i usklađenost s propisima u španskim i evropskim organizacijama morat će Uključite u svoje analize rizika scenarije u kojima autonomni agenti međusobno komunicirajuOni dijele fragmente informacija na mrežama poput Moltbooka i mogu pokrenuti lančane efekte koje je teško pratiti.

Moltbotova putanja, od virusnog eksperimenta do ekosistema poluautonomnih agenata sa vlastitom društvenom mrežom, ilustruje stepen u kojem Granica između alata za produktivnost i potencijalno nekontroliranog sistema postaje sve nejasnija.Suočeni s iskušenjem da prihvatimo ove tehnologije isključivo zbog njihove efikasnosti ili novosti, ovaj slučaj nas prisiljava da se ozbiljno pozabavimo pitanjima sigurnosti, odgovornosti i upravljanja koja ih prate. Sljedeći val umjetne inteligencije u Evropi neće zavisiti isključivo od moći modela, već od naše sposobnosti da odlučimo pod kojim pravilima, ograničenjima i nadzorom dozvoljavamo agentima poput Moltbota da djeluju nezavisno.

Vezani članak:
Zaboravite Twitch i kreirajte vlastiti FM radio uz Raspberry Pi

Pratite nas na Google Vijestima