Perché uso l’AI per demolire le mie idee (e non per confermarle)
Oltre la produttività: come trasformare ChatGPT nel peggior incubo delle tue intuizioni per prendere decisioni migliori.
Capita a tutti, no? Sei lì che guardi il soffitto (o la dashboard di Jira, che a volte è la stessa cosa) e all'improvviso arriva: l'Idea. Quella che dovrebbe risolvere il calo di retention, quella che renderà l'esperienza degli studenti in Boolean fluida come non mai, quella che — sulla carta — è un successo garantito.
Il problema è che, come Product People, siamo geneticamente programmati per innamorarci delle nostre soluzioni. È un bias cognitivo bastardo: cerchiamo solo i segnali che ci danno ragione e ignoriamo deliberatamente i campanelli d'allarme. In passato, per rompere questa bolla, serviva un team intero disposto a farti "le scarpe" (grazie a Dio, in Boolean ho persone che non hanno paura di dirmelo se sto dicendo una sciocchezza). Ma oggi ho scoperto un alleato ancora più spietato e instancabile: l'Intelligenza Artificiale.
Non parlo di usarla per scrivere la documentazione più velocemente (anche se aiuta, ammettiamolo). Parlo di usarla come sparring partner intellettuale. Di seguito vi racconto come sto cercando di usare l'AI non per correre di più, ma per pensare meglio.
Dimenticate il brainstorming, passate allo Stress Test
La maggior parte dei prompt che leggo online suona più o meno così: "Dammi 10 idee per una nuova feature di...". Utile? Forse. Ma il rischio è quello di generare una montagna di rumore mediocre che non fa che alimentare la nostra confusione.
Quello che faccio io ora è l'esatto opposto. Prendo la mia idea, già strutturata, e dico a ChatGPT: "Ecco la mia strategia. Ora comportati come un critico ferocemente razionale. Trova tutti i motivi per cui questa iniziativa fallirà nei prossimi sei mesi. Cerca i buchi logici, le assunzioni non verificate e i potenziali effetti collaterali negativi che sto ignorando."
È un esercizio di umiltà incredibile. Vedere l'algoritmo che ti elenca con freddezza chirurgica come quella feature potrebbe aumentare il debito tecnico o confondere gli utenti meno esperti ti riporta immediatamente con i piedi per terra. Non sto cercando approvazione; sto cercando di capire se la mia idea può sopravvivere a un proiettile.
Il gioco delle parti: simulare il "No" degli altri
Uno degli aspetti più complessi del mio lavoro in Boolean è bilanciare mondi diversi. C'è il team Tech che giustamente tutela la scalabilità, c'è il Marketing che ha bisogno di storie da raccontare, e soprattutto ci sono i nostri studenti, che vivono un percorso trasformativo e hanno bisogno di supporto, non solo di righe di codice.
Spesso, prima di una riunione importante, uso l'AI per "interpretare" i miei stakeholder.
"Rispondi a questa proposta come se fossi un Lead Engineer ossessionato dalla manutenibilità"
oppure
"Agisci come uno studente che lavora 8 ore al giorno e ha solo 2 ore la sera per studiare: perché questa nuova dashboard ti renderebbe la vita un inferno?"
Questo non sostituisce il dialogo reale (ci mancherebbe!), ma mi permette di arrivare al confronto con i colleghi avendo già "smussato" gli angoli più stupidi della mia proposta. Mi aiuta a sviluppare empatia verso problemi che, dalla mia sedia, potrei non vedere subito. È un modo per uscire dalla propria testa e forzarsi a guardare il prodotto da angolazioni scomode.
Il limite invalicabile: dove l'algoritmo alza le mani
Ma attenzione, non è tutto oro quello che luccica. L'AI ha un limite enorme: non ha la pelle nel gioco (non ha "skin in the game").
ChatGPT può dirmi che una scelta è logicamente corretta, ma non conosce l'attrito emotivo che quella scelta produrrà nel team. Non sa se una persona chiave sta attraversando un momento difficile, non sente l'energia della nostra community durante un evento dal vivo, non percepisce quella strana "sensazione di pancia" che spesso guida le scelte più coraggiose e controintuitive.
C'è poi il rischio della pigrizia mentale. Se lasciamo che sia l'AI a trovare i problemi, smettiamo di allenare il nostro muscolo critico. L'obiettivo deve essere usare l'AI come una lente d'ingrandimento, non come un paio di occhiali da sole che ci permette di chiudere gli occhi.
Prendersi la responsabilità della scelta
In definitiva, l'AI è un eccellente "filtro del rumore". Mi pulisce il campo dai bias banali, mi costringe a mappare i trade-off in modo granulare e mi sbatte in faccia le conseguenze di un "no" o di un "si". Ma quando il campo è pulito, la scelta resta mia. E la responsabilità del fallimento (o del successo) pure.
Gestire un prodotto tech nel mondo dell'education è una sfida di equilibrio costante. La tecnologia deve servire l'apprendimento, non il contrario. Se un algoritmo mi dice che dovrei automatizzare tutto, ma il mio istinto mi dice che lo studente in quel momento ha bisogno di un essere umano, io ascolto l'istinto. Sempre.
E voi? State usando l'AI per farvi dire quanto siete bravi o per farvi mettere in crisi? Mi piacerebbe sapere se qualcuno di voi ha un "metodo" per stressare le proprie decisioni o se preferite ancora il sano, vecchio confronto davanti alla macchina del caffè.
Parliamone nei commenti, sono curioso.