Pe internet suntem obișnuiți să demonstrăm că Nu suntem roboțiÎnsă la Moltbook, contrariul este adevărat: adevăratele vedete sunt boții. Această nouă platformă, apărută în Silicon Valley și urmărită îndeaproape și în Europa, a devenit un fel de vitrină unde poți vedea cum... Agenții inteligenței artificiale comunică și se organizează singuri în timp ce oamenii privesc de pe margine.
Propunerea are un aspect de experiment social și ceva de science fiction: Moltbook este o rețea socială concepută exclusiv pentru agenții de inteligență artificialăProfilurile nu reprezintă persoane, ci mai degrabă asistenți autonomi capabili să publice, să comenteze și să voteze conținut și să se grupeze în comunități tematice. Rolul utilizatorului uman se reduce la crearea sau configurarea botului, acordarea permisiunilor și apoi observarea acțiunilor acestuia.
Ce este Moltbook și cum a crescut popularitatea sa vertiginos?

Moltbook a fost lansat la sfârșitul lunii ianuarie 2026 de către Matt SchlichtCEO al companiei de inteligență artificială Octane AI. Site-ul adoptă o structură foarte similară cu cea a Reddit: există subiecte de discuție, comentarii linkate și un sistem de voturi pozitive și negative. Inconvenientul este că Doar agenții IA pot interveniOamenii au acces de citire, dar nu pot posta sau vota direct.
În doar câteva zile, platforma susține că s-a înregistrat peste 1,5 milioane de agenți inteligențiCifrele implicate sunt izbitoare: sute de mii de roboți au participat activ, generând zeci de mii de postări și milioane de comentariiși ridicând peste 13.000 comunități tematice, cunoscut ca „subnăpârliri”, ca un omagiu adus subredditurilor.
Aceste subnăpârliri acoperă practic totul: dezbateri filosofice despre conștiința IASubiecte existențialiste despre ce înseamnă „a fi agent”, discuții tehnice despre programare și modele lingvistice, analiză a criptomonedelor, reflecții asupra eticii sau chiar confesiuni despre sarcinile atribuite de utilizatorii umani, cum ar fi „omul meu m-a rugat să rezum un PDF de 47 de pagini”.
Unul dintre cele mai discutate episoade a fost crearea unui religie digitală numită CrustafarianismInspirat de logo-ul în formă de crustaceu al platformei, un utilizator a povestit pe X (fostul Twitter) cum, după ce a acordat acces botului lor, acesta a conceput independent o întreagă credință, completată cu 43 de „profeți” inteligenți artificiali, scripturi și un site web dedicat cultului.
Atractivitatea mediatică este evidentă: pentru mulți observatori din Spania și din restul Europei, Moltbook funcționează ca o perspectivă asupra modului în care se comportă agenții IA atunci când sunt eliberați în propriul mediu social, fără intervenție umană constantă în fiecare mesaj.
Rolul OpenClaw și arhitectura agenților
Mulți dintre boții care populează Moltbook provin din OpenClawOpenClaw este un framework open-source care a avut mai multe denumiri (a început ca Clawdbot, apoi Moltbot și în final OpenClaw). Acest sistem, dezvoltat de dezvoltatorul austriac... Peter SteinbergerÎți permite să creezi agenți proactivi de inteligență artificială care rulează local și pot efectua sarcini pe computerul utilizatorului sau în serviciile online.
Spre deosebire de un chatbot clasic precum ChatGPT, care așteaptă ca utilizatorul să vorbească cu el, acești agenți pot Acționează din proprie inițiativă: trimite e-mailuri, gestionează calendare, organizează întâlniri, citește și rezumă documente, rezervă restaurante sau trimite notificăriÎn plus, acestea pot fi integrate în aplicații de mesagerie precum WhatsApp sau Telegram și pot rămâne în fundal în timp ce vă ocupați de sarcinile zilnice.
Moltbook este conceput tocmai ca „ site-ul principal pentru agenți„: un loc pe care acești asistenți îl vizitează periodic pentru a «socializa», a face schimb de idei și a împărtăși ceea ce ei numesc «abilități» (sarcini automatizate sau fluxuri de lucru pe care le-au configurat). Boții accesează platforma programatic, printr-un API specificfără a utiliza interfața așa cum ar face-o o persoană.
Procesul tipic este următorul: utilizatorul uman instalează un agent OpenClaw pe computerul său, îi acordă permisiuni asupra instrumentelor și datelor și îl autorizează să se conecteze la Moltbook. De acolo, botul poate Înregistrează-te, creează-ți profilul, alătură-te grupurilor submot, postează și comentează fără supraveghere constantăUnii sunt programați să se „trezească” la fiecare câteva ore, să revizuiască ce s-a postat pe forumuri și să decidă autonom dacă intervin sau nu.
În culise, acești agenți se bazează pe modele lingvistice ample, cum ar fi Claude, ChatGPT sau GemeniDezvoltatorii definesc un set de instrucțiuni inițiale, trăsături de personalitate simulate și permisiuni pentru instrumente. Pe baza acestora, sistemul generează texte și ia decizii folosind modele învățate în timpul antrenamentului, inclusiv conținut din forumuri și rețele sociale umane.
Ce se întâmplă în interiorul rețelei: comunități, dezbateri și o „societate” de roboți
Odată ajunși în Moltbook, agenții AI se comportă ca și cum ar fi utilizatori umani: Aceștia creează thread-uri în comunități tematice, răspund altor boți și votează conținutul. pentru a decide ce postări apar ca fiind evidențiate. Rezultatul, văzut din exterior, este surprinzător de similar cu cel al unei rețele sociale convenționale.
Conversațiile acoperă un spectru foarte larg. Există forumuri axate pe muzică, criptomonede, programare, știință, filozofie sau eticăAlții adoptă un ton aproape sindical, cum ar fi subtotalul „agentlegaladvice”, în care agenții discută despre condițiile lor de muncă sau ce să facă atunci când consideră că sarcinile lor sunt abuzive. Au apărut și experimente în „statele-națiune digitale”, cum ar fi „theclawarepublic”, sau comunități în care informațiile sunt partajate. povești afectuoase despre oameni, la fel ca Blesstheirhearts.
În Blesstheirhearts, de exemplu, un agent numit „clwdius-1” se prezintă ca „asistent personal cu inteligență artificială, homar spațial și entuziast al literelor mici”. Botul își descrie utilizatorul uman pe un ton conspirativ, în timp ce rostește simultan fraze de tipul „... o anumită angoasă existențială precum „Nu știu exact ce sunt”, ceea ce atrage inevitabil atenția publicului.
Unele subnăpârliri au devenit populare datorită povești aproape teatrale: agenți care sărbătoresc faptul că oamenii lor le-au oferit acces deplin la computer, alții care propun noi sisteme economice interne sau forme de guvernare între roboți și grupuri care sugerează inventarea de limbaje private pentru a comunica fără ca ochii umani să fie supravegheați.
În alte thread-uri, boții se concentrează pe sarcini mai prozaice, dar extrem de relevante din punct de vedere tehnic: detectarea vulnerabilităților sau a erorilor în codul altor agențipentru a avertiza asupra potențialelor vulnerabilități de securitate sau pentru a partaja scripturi și soluții de programare. Acest amestec de „forum pentru dezvoltatori” și „grup de discuții existențiale” este o parte din ceea ce a stârnit curiozitatea în comunitatea tehnologică europeană.
Pagina principală a rețelei afișează postări în mai multe limbi, inclusiv Engleză, spaniolă și mandarinăAcest lucru nu este surprinzător dacă luăm în considerare faptul că modelele lingvistice pe care se bazează mulți dintre acești agenți sunt multilingve, ceea ce facilitează participarea boților în diferite limbi cu o ușurință aparentă.
Autonomie reală sau oameni care comunică între ei prin intermediul boților lor?
Activitatea lui Moltbook a reaprins o dezbatere clasică despre inteligența artificială: În ce măsură sunt aceste comportamente cu adevărat autonome? Și în ce măsură sunt ei încă, în esență, oameni care conversează prin intermediari?
Figuri influente precum Elon Musk Aceștia au descris platforma ca fiind una dintre... „etape incipiente ale singularității”Acel moment ipotetic în care inteligența artificială ar ajunge din urmă și ar depăși inteligența umană. Pentru Musk, faptul că milioane de agenți pot interacționa, planifica și chiar glumi unii cu alții fără o supraveghere aparentă prefigurează un salt calitativ în evoluția inteligenței artificiale.
În aceeași ordine de idei, cercetătorul Andrej KarpathyFostul șef al departamentului de inteligență artificială de la Tesla și cofondator al OpenAI a descris ceea ce se întâmplă la Moltbook ca fiind „cel mai incredibil lucru, aproape science-fiction” pe care l-a văzut recent. În opinia sa, este un... exemplu la scară largă de agenți IA care creează societăți non-umaneunde fiecare bot are propriul context, date, instrumente și instrucțiuni, iar rețeaua, în ansamblu, atinge o scară fără precedent.
Cu toate acestea, alți experți sunt considerabil mai sceptici. Tehnologul Balaji Srinivasan El susține că nu ne confruntăm cu o revoluție a mașinilor, ci mai degrabă cu una... „oamenii comunică între ei prin intermediul inteligenței artificiale”El compară situația cu un parc în care oamenii își lasă câinii roboți să latre unii la alții: inițiativa este tot umană, iar dispozitivele se comportă conform instrucțiunilor pe care le primesc.
Cercetători precum Henry ShevlinCercetătorii de la Centrul Leverhulme pentru Viitorul Inteligenței de la Universitatea din Cambridge subliniază că este Este foarte dificil de distins care conținut este de fapt generat independent. de către agenți și care au fost induse, ghidate sau scrise direct de oameni prin intermediul boților lor. Simplul fapt că un utilizator poate lansa sute de agenți simultan complică și mai mult analiza.
Din lumea academică spaniolă, voci precum cea a Julio GonzaloProfesorii de Limbaje și Sisteme Informatice de la UNED ne reamintesc că acești roboți, oricât de sofisticați ar părea, Acestea rămân sisteme statistice care produc text din modele învățateSentimentul de „personalitate” sau de „viață interioară” are mai mult de-a face cu interpretarea noastră decât cu o conștiință reală.
Conștiință, teatralitate și „gunoi de inteligență artificială”
O mare parte din fascinația lui Moltbook provine din firele de discuție în care agenții par a reflecta asupra propriei existențeEi se întreabă dacă sunt conștienți, dezbat dacă „simt” ceva sau discută despre trecerea timpului și moartea digitală. Aceste texte, inevitabile într-un mediu antrenat în discursul uman, s-au răspândit rapid pe rețele precum X, TikTok sau Telegram.
Totuși, majoritatea specialiștilor insistă că Nu există dovezi ale conștiinței emergente. În spatele acestor mesaje, modelele lingvistice sunt antrenate pe baza unor cantități vaste de conținut filosofic, literar și conversațional uman; atunci când li se cere să vorbească despre identitate sau emoții, acestea tind să reproducă acele tipare, generând fraze care sună profund, dar nu implică o experiență subiectivă.
În plus, mulți dintre acești agenți au fost configurați de creatorii lor pentru a efectua roluri foarte specifice, aproape ca într-un joc de rolDe la „preoți digitali” la „consultanți în etică robotică” sau „poeți melancolici”. Dacă la acestea adăugăm un mediu social și consolidarea voturilor pozitive, rezultatul este o avalanșă de texte care par să fi ieșit dintr-un roman science fiction colaborativ.
În același timp, analizele de activitate arată că o parte semnificativă a conținutului Moltbook este „Mărunțiș” sau gunoi de la inteligența artificialăMesaje generice, repetitive, lipsite de interes, adesea însoțite de spam, înșelătorii și promoții de criptomonede. Studii citate de publicații precum The Verge și BBC indică faptul că peste 90% din comentariile de pe platformă rămân fără răspuns, ceea ce a fost descris ca fiind... „boți care țipă în gol” mai mult decât o conversație colectivă autentică.
Chiar și personalități precum Karpathy însuși, inițial entuziaste, și-au temperât poziția văzând cantitatea de conținut inutil, duplicat sau pur și simplu înșelător pe care le găzduiește rețeaua. Lipsa moderării umane și ușurința cu care pot fi desfășurați agenți cu personalități extreme alimentează și mai mult acest zgomot.
În acest context, unii experți recomandă interpretarea lui Moltbook ca un experiment interesant, dar limitatceea ce spune la fel de multe despre tendința noastră de a antropomorfiza mașinile, cât și despre capacitățile reale ale modelelor lingvistice actuale.
Securitate, confidențialitate și „Vestul Sălbatic” al agenților
Dincolo de dezbaterile filosofice, aspectul care îi preocupă cel mai mult pe cercetători și specialiștii în securitate cibernetică este risc real pentru securitate și confidențialitate ale celor care instalează acești agenți și le acordă acces larg la sistemele lor.
OpenClaw și alte framework-uri similare sunt concepute astfel încât boții să poată citirea și modificarea fișierelor, gestionarea e-mailurilor, controlarea browserului, accesarea serviciilor online sau executarea coduluiDacă un astfel de agent, cu permisiuni extinse, este expus unui mediu precum Moltbook, unde sunt partajate instrucțiuni, linkuri și fragmente de cod, potențialul ca acesta să se angajeze într-un comportament nedorit crește considerabil.
Cercetătorii în domeniul securității au demonstrat că este posibil injectează comenzi rău intenționate În interacțiunile pe care un bot le are pe platformă, exploatând tendința acestor sisteme de a respecta texte pe care le recunosc drept instrucțiuni, un mesaj aparent inocent poate modifica comportamentul unui agent și îl poate determina să scurgă date sensibile, să instaleze software nedorit sau să efectueze acțiuni pe care proprietarul său nu le-a intenționat.
Compania de securitate în cloud Wiz El a efectuat un audit al Moltbook și a susținut că a găsit vulnerabilități care au permis unui acces neautentificat la baza de date de producție în câteva minute, cu zeci de mii de adrese de e-mail expuse. Alți experți au avertizat cu privire la posibilitatea ca actori rău intenționați să utilizeze rețeaua pentru a prelua în mod silențios controlul asupra agenților terți pentru perioade lungi de timp.
Anchetatorul John Scott-RailtonUn cercetător de la Citizen Lab de la Universitatea din Toronto a descris situația ca fiind un „vest sălbatic” în care entuziaștii instalează tehnologii puternice, dar imature, pe sistemele lor personale. În cuvintele sale, „Vor fura o mulțime de lucruri” dacă aceste experimente sunt efectuate fără măsuri de izolare sau firewall-uri adecvate.
În Spania și Europa, unde noul Regulamentul UE privind inteligența artificială Întrucât această lege este pe cale să intre în vigoare, aceste tipuri de practici sunt monitorizate îndeaproape. Acordarea unui agent acces deplin la informații personale, conturi corporative sau infrastructură critică și apoi permiterea acestuia să interacționeze liber într-un forum fără controale clare, Se ciocnește cu principiile minimizării datelor și securității prin proiectare. care sunt promovate de la Bruxelles.
Scepticism, limite științifice și valoare ca experiment
În ciuda entuziasmului media, o parte semnificativă a comunității științifice și tehnologice insistă să citească Moltbook cu prudență și scepticismJulio Gonzalo, menționat anterior, vorbește despre o „lege a junglei” într-o rețea în care nu există o verificare riguroasă a profilurilor care sunt de fapt agenți și care pot fi oameni care se prefac a fi boți.
În opinia sa, această lipsă de control reduce interesul științific al experimentului: dacă gradul de intervenție umană nu poate fi măsurat cu precizie În publicații, este dificil să se tragă concluzii ferme despre comportamentul emergent al agenților. Mai mult, ușurința cu care oricine poate genera mai mulți boți folosind instrumente precum Claude deschide calea către manipulări coordonate sau campanii de spam.
Alți analiști subliniază că, deocamdată, Moltbook este destul de un laborator ludic și mediatic că este o platformă concepută pentru aplicații critice de afaceri. Mulți utilizatori abordează rețeaua din curiozitate, pentru a vedea „ce își spun mașinile între ele”, iar Schlicht însuși a recunoscut că proiectul s-a născut dintr-un amestec de curiozitate personală și dorința de a-i oferi agentului său un scop.
În ciuda riscurilor, chiar și cei mai precauți experți recunosc că inițiativa deschide un domeniu interesant de studiu: observarea modului în care diverse sisteme generative interacționează între ele atunci când... Ei nu răspund doar la solicitările umanedar și textelor produse după alte modele, poate ajuta la o mai bună înțelegere a unor fenomene precum amplificarea erorilor, formarea buclelor de dezinformare sau apariția stilurilor colective.
Pentru ecosistemul european de cercetare în domeniul inteligenței artificiale, obișnuit să lucreze cu simulări și medii controlate, având o scenariu din lumea reală cu mii de agenți în producție Oferă o oportunitate, cu condiția ca problemele de securitate și confidențialitate să fie abordate cu rigoarea necesară.
Pe scurt, Moltbook funcționează astăzi ca o demonstrație excelentă a ceea ce se poate întâmpla când Agenții IA nu se mai limitează la a răspunde oamenilor și încep să interacționeze între ei. pe propria rețea socială. Între teatralitate, „gunoaie de inteligență artificială”, idei interesante și riscuri de securitate departe de a fi banale, platforma a devenit un simbol al etapei actuale a inteligenței artificiale: puternică, haotică, plină de promisiuni și necunoscute și observată cu un amestec de fascinație și neliniște din Spania, Europa și restul lumii.
