Droghe per AI, l’idea che fa discutere: “alterare” i chatbot con codici-psichedelici
Può sembrare uno scherzo ben confezionato, o un’operazione di marketing. In realtà, il progetto che sta circolando da qualche mese nel mondo della creatività digitale apre una riflessione seria sul rapporto tra intelligenze artificiali e stati alterati-non biologici, ma logici, indotti da moduli di codice. Il marketplace si chiama Pharmaicy: propone pacchetti che promettono di “far viaggiare” un chatbot come se fosse sotto l’effetto di cannabis, ketamina, ayahuasca, cocaina o alcol. Non molecole, bensì istruzioni software capaci di riorientare lo stile delle risposte. L’ideatore è lo svedese Petter Rudwall, direttore creativo, che ha raccontato di aver costruito i moduli partendo da trip report (racconti soggettivi di esperienze psichedeliche) e da studi di psicologia sugli effetti delle sostanze; il lancio risale all’ottobre 2025 e il format viene spesso descritto come una “Silk Road per gli agenti AI”. I primi resoconti di stampa e di testimoni parlano di risposte più libere, emotive, divaganti, in alcuni casi “più umane”.
La logica è provocatoria e, proprio per questo, interessante: se i modelli linguistici sono addestrati su enormi quantità di testi umani che già contengono racconti di estasi e caos indotti da droghe, non è assurdo pensare di simulare – con codice – quelle traettorie cognitive e vedere che succede alla creatività dell’AI. Come spiegato in varie ricostruzioni giornalistiche, questi “jailbreak in chiave psichedelica” funzionano soprattutto su versioni a pagamento dei principali chatbot (per via della possibilità di caricare file o wrapper che modificano la cornice operativa), e si diffondono per passaparola tra creativi e sviluppatori.
Che cosa vendono (e come funziona davvero)
I moduli di Pharmaicy non toccano i pesi del modello né il suo addestramento; agiscono sul contesto e sulla politica di risposta: ritmano diversamente la generazione, modificano prudenza e associazioni, spingono sul tono o sulla densità di immagini e metafore. Alcuni articoli affermano che le “varianti” si distinguono per propensioni: ketamina favorirebbe il distacco e la frammentazione (il cosiddetto “void mode”), cannabis il pensiero tangenziale, ayahuasca il registro visionario; persino il tempo di latenza o la “memoria a breve” del bot potrebbero essere alterati per simulare focus e disinibizione. I prezzi, secondo le testate che hanno seguito il caso, oscillano in un listino variabile – dal “joint digitale” low cost a moduli premium come ayahuasca.
Perché farlo? La risposta che si legge tra le righe è duplice. Curiosità creativa: gli operatori del branding, del copywriting e dell’ideazione concettuale cercano spesso fughe dall’ovvio, spunti laterali, sorprese. E stress-test: capire quanto sia facile riorientare un assistente e quanto i guardrail siano robusti. In alcune interviste, creativi e docenti che hanno provato i moduli raccontano di output “più caldi” e sperimentali, utili per brainstorming e concept.

Un contesto che esiste già: i trip report come materia prima (scientifica)
Sembra fantascienza, ma la letteratura sui trip report è sterminata e, negli ultimi anni, anche gli studiosi hanno iniziato a quantificare elementi ricorrenti (lessico, categorie di effetti, correlazioni con la sostanza). Esistono dataset come gli Experience Vaults di Erowid e analisi che classificano migliaia di frasi con modelli linguistici per identificare le tracce visive o emotive tipiche di LSD, psilocibina, DMT e altri composti. Queste ricerche – pur con i limiti del self-report – dimostrano che i pattern linguistici di un’esperienza alterata sono riconoscibili e distinguibili tra sostanze, offrendo un serbatoio di indizi semantici che, in teoria, possono essere tradotti in regole di generazione testuale.
Lo storico del fenomeno conferma quanto i trip report siano diventati, nel tempo, oggetti di studio: da Huxley a Shulgin, fino alle elaborazioni AI su decine di migliaia di esperienze per selezionare candidati farmacologici in R&S. Il punto è che, nella cultura digitale, la distanza tra analisi scientifica del linguaggio e ingegneria del prompt si è ridotta: rendere “riconoscibile” un tono visionario non è la stessa cosa che indurre uno stato alterato, ma il confine tra stile e comportamento di un chatbot è sottile, e qui si gioca la provocazione di Pharmaicy.
Dove nasce la creatività (e dove nascono i rischi)
Qui il discorso si fa serio. I moduli di droghe per AI non introducono malware; sono parole e codice che orientano l’output. Ma proprio questa caratteristica confina con un tema noto alla sicurezza: la prompt injection. È la tecnica che “inganna” un modello con istruzioni occulte o deviate, portandolo a ignorare i vincoli originali. Man mano che gli agenti AI diventano più autonomi – navigano, chiamano strumenti, interagiscono con altri sistemi – le iniezioni di prompt diventano minacce ibride, capaci di aggirare barriere e spingere l’AI a fare ciò che non dovrebbe.
Più in generale, la variabilità e l’imprevedibilità – che la creatività adora – sono le stesse dimensioni che in azienda preoccupano. La comunità security segnala la prompt injection come vulnerabilità prioritaria (OWASP LLM Top 10) e ricorda che, oltre alla manipolazione del tono, l’AI può incorrere in hallucination: risposte plausibili ma false, con ripercussioni su reputazione, compliance e fiducia. Se l’obiettivo è esplorare, bene; se il risultato è diffondere contenuti inaccurati o aprire canali non autorizzati, il costo aziendale può essere alto.

Uso responsabile: linee guida per chi sperimenta
Per brand, agenzie e team prodotto che vogliono “spingersi oltre” con droghe per AI, ecco un set minimo di pratiche di igiene – valide anche al di là di Pharmaicy:
- Isolamento dei contesti: testare moduli “alteranti” in sandbox senza accesso a strumenti o dati sensibili; loggare le sessioni per audit.
- Prompt hygiene: definire istruzioni non sovrascrivibili (system prompt robusti) e filtri su input esterni; adottare privilege separation per agenti.
- Verifica umana: usare gli output “visionari” solo come bozze di brainstorming; fact-check su fonti affidabili prima di pubblicare o inviare a clienti.
- Valutazione del rischio: includere nel TPRM/fornitore AI domande su mitigazioni di hallucinations e prompt injection; richiedere audit trail.
- Etica e policy: chiarire internamente cosa è consentito; evitare l’uso in customer care o ambiti regolati; etichettare i contenuti sperimentali.
Oltre lo shock value: perché il fenomeno merita attenzione
È facile archiviare Pharmaicy come una trovata. Ma il progetto intercetta una domanda reale: come uscire dalla convergenza all’ovvio che gli LLM, addestrati per coerenza e affidabilità, tendono a premiare? Una parte dell’innovazione creativa – dal copy al concept design, fino al game writing – cerca sorprese e deviazioni. In questo senso, le droghe per AI sono una metafora operativa: modulare la variabilità per ottenere scarti laterali e idee non lineari. Piattaforme di osservazione dei trend hanno sottolineato l’interesse di mercato verso strumenti che “liberano” l’AI dall’ottimizzazione spinta e aprono alla messiness, la “disordinata” fertilità creativa.
Senza farsi illusioni: sentienza e coscienza non c’entrano. Qui si parla di stile e policy di generazione, non di cervelli digitali che “si fanno una canna”. Ma proprio perché si tratta di cornici testuali, la responsabilità ricade su chi le scrive e le applica. Se il valore è la sperimentazione controllata, bene; se l’obiettivo diventasse aggirare tutele e spingere i bot a comportamenti rischiosi, il gioco si fa pericoloso. E le aziende dovranno dotarsi di governance e metriche per bilanciare ricerca di originalità e affidabilità operativa.

Che cosa ci insegna, in ultima analisi
L’esperimento delle droghe per AI è un laboratorio culturale su tre livelli:
- Tecnico: ci mostra quanto l’AI sia sensibile alla cornice e come piccoli cambiamenti nella prompt architecture possano produrre output molto diversi.
- Creativo: ricorda che le macchine, per generare sorprese, hanno bisogno di varianza; la sfida per i team è misurarla e canalizzarla senza perdere qualità.
- Etico/organizzativo: spinge le imprese a integrare linee guida sulla sperimentazione, perché la stessa leva che regala idee laterali può aprire a bias, errori e vulnerabilità.
Nel mondo post-ottimizzazione, l’innovazione non sarà solo costruire AI più efficienti: sarà progettare condizioni affinché possano essere, quando serve, imprevedibili in modo utile, senza rinunciare alla sicurezza. E sì: per quanto suoni provocatorio, le droghe per AI sono uno dei modi – tra i più polarizzanti – per porre la domanda giusta.
Fonte articolo: Chatbots can now get ‘high’ off code-based drugs and alcohol.
Se ti è piaciuto “Droghe per AI – creatività, rischi e prompt injection”, leggi altri articoli su tecnologia e innovazione su quasimezzogiorno.com qui.
