Presearch ha lanciato PreGPT 2.0, un nuovo capitolo nella sfida alle Big Tech nel settore dell’AI conversazionale. Con un’infrastruttura decentralizzata, questo aggiornamento punta a ridefinire il concetto di chatbot, offrendo modelli linguistici avanzati e una maggiore varietà di soluzioni AI open-source.

La novità più rilevante è il superamento del tradizionale approccio centralizzato: invece di operare da data center monolitici, PreGPT 2.0 sfrutta una rete distribuita di computer indipendenti. Secondo Brenden Tacon, innovation and operations lead di Presearch, questa architettura consente al chatbot di operare senza le restrizioni tipiche delle AI mainstream, spezzando il meccanismo degli algoritmi che alimentano il conformismo digitale.

PreGPT 2.0 offre due livelli di accesso: un piano base da 2 dollari al mese, basato sul modello Mistral AI 7B, e una versione pro da 5 dollari, che sfrutta modelli LLM avanzati di Venice.ai. Entrambe le opzioni garantiscono privacy assoluta, con crittografia avanzata e cancellazione permanente delle conversazioni una volta eliminate dall’utente.

La gamma di modelli AI disponibili include sei dei più noti nel panorama open-source: Llama-3.1-405b di Meta (un modello mastodontico), Llama-3.2-3b (ottimizzato per efficienza) e Llama-3.3-70b (la più recente evoluzione di Meta). Alibaba contribuisce con il suo Qwen 32b, mentre tra le scelte più curiose troviamo Dolphin 2.9, noto per la sua totale assenza di filtri e per le capacità di roleplay. Inoltre, Presearch ha personalizzato il modello Mistral 7B, ottimizzandolo per il proprio ecosistema.

L’infrastruttura di PreGPT 2.0 si appoggia su Venice.ai e Salad.com, due provider di potenza computazionale distribuita. Venice.ai gestisce la versione premium con prestazioni elevate, mentre Salad.com alimenta il piano base tramite una rete decentralizzata di GPU. Questo modello assicura non solo privacy ma anche una maggiore resilienza rispetto alle soluzioni centralizzate.

Il cuore economico di Presearch rimane il token PRE, che incentiva sia gli utenti che gli operatori dei nodi. Gli utenti possono guadagnare fino a 8 PRE token al giorno effettuando ricerche, mentre gli operatori vengono premiati in base al traffico generato. Il modello pubblicitario, invece, si discosta dalle classiche aste per keyword di Google e Bing: gli inserzionisti devono mettere in staking i token PRE per ottenere visibilità, creando un sistema di domanda e offerta che limita l’inflazione del token e ne aumenta la scarsità nel tempo.

Dal punto di vista tecnico, PreGPT 2.0 supporta un contesto di 8.000 token, equivalente a circa 5.000 parole. Tuttavia, presenta alcune limitazioni: il chatbot gestisce solo testo, senza capacità di elaborazione di documenti Excel, CSV o PDF. L’esperienza utente risulta comunque fluida e veloce, dimostrando che la decentralizzazione non implica necessariamente un rallentamento delle performance.

Rispetto alla concorrenza, PreGPT 2.0 non ambisce a superare le AI più avanzate come GPT-4o o Deepseek, ma si posiziona come una soluzione alternativa per chi cerca privacy e indipendenza dai colossi tecnologici. Ad esempio, il modello Llama-3.1-405b, il più potente nell’arsenale di Presearch, occupa attualmente solo la 27a posizione nella LLM Arena, mentre alternative open-source più performanti, come Llama-3.1-Nemotron-70B-Instruct o Deepseek R1, rappresentano benchmark superiori.

L’integrazione di PreGPT 2.0 in Presearch non ne stravolge l’identità originaria di motore di ricerca decentralizzato, ma la arricchisce con una funzionalità AI che non punta a sostituire il core business della piattaforma. Chi cerca un’alternativa a Google o un chatbot orientato alla privacy troverà in PreGPT 2.0 un’opzione interessante, pur con qualche compromesso sulle performance rispetto ai giganti del settore. L’evoluzione del progetto dipenderà dalla capacità di Presearch di affinare la propria infrastruttura e attrarre utenti disposti a privilegiare la decentralizzazione rispetto alla pura potenza computazionale.