Milioni di domande ogni giorno, e un sospetto che cresce
Ogni giorno milioni di persone aprono ChatGPT e digitano domande di ogni tipo. Domande pratiche su come configurare un software, domande intime su relazioni che si stanno sgretolando, domande disperate scritte alle tre di notte quando il sonno non arriva. Domande meccaniche, filosofiche, assurde, urgenti. Il flusso è continuo e chi lavora nella relazione d'aiuto lo osserva con un misto di curiosità e disagio.
Nel mondo del counseling, del coaching, delle professioni olistiche, questa intelligenza artificiale viene spesso percepita come un intruso. Come se si fosse inserita nel rapporto tra il professionista e chi avrebbe dovuto rivolgersi a lui per un percorso di crescita o di cura. Alcuni colleghi ne parlano con toni allarmati, altri con sufficienza, molti con un silenzio che tradisce preoccupazione.
Ma la questione vera sta altrove. Le persone usano ChatGPT anche per farsi ascoltare, per avere uno spazio dove esprimere dubbi e fragilità senza il timore del giudizio. Questo dato dovrebbe far riflettere chi ha costruito la propria identità professionale proprio sull'ascolto, sulla presenza, sul contatto umano.
Dietro ogni domanda c'è una storia che non viene detta
Prendiamo una domanda apparentemente semplice: "Come posso farmi conoscere online?". Letta così sembra una richiesta tecnica, risolvibile con qualche consiglio su social media e strategie di visibilità. ChatGPT può fornire una risposta articolata in pochi secondi, con elenchi puntati e suggerimenti pratici.
Ma quella stessa domanda, posta da una donna che ha appena lasciato un lavoro dopo vent'anni per avviare un'attività in proprio, assume un significato completamente diverso. Dietro quelle parole c'è un'identità professionale in ridefinizione, c'è la paura di esporsi dopo decenni passati al riparo di un ruolo aziendale, c'è il terrore di essere giudicata inadeguata. C'è un conflitto interiore che nessun tutorial sul personal branding può risolvere.
A questa persona non serve un piano editoriale. Le manca la voce, intesa come capacità di riconoscersi e di presentarsi al mondo con autenticità. Un counselor preparato coglie questa differenza in pochi minuti di conversazione. ChatGPT, per quanto sofisticato, risponde alla domanda esplicita senza accedere a ciò che la genera.
L'intelligenza artificiale come specchio dei bisogni inascoltati
Chi lavora nelle professioni d'aiuto può scegliere due strade di fronte a questo fenomeno. La prima è mettersi in competizione con le risposte pronte, cercando di essere più veloce, più esaustivo, più disponibile di un software. Una gara persa in partenza, perché la macchina elabora informazioni a una velocità irraggiungibile per qualsiasi essere umano.
La seconda strada è più interessante e richiede un cambio di prospettiva. Le domande che le persone rivolgono a ChatGPT rappresentano una mappa dei loro bisogni, delle loro ansie, delle loro speranze. Sono domande formulate senza filtro, spesso in momenti di vulnerabilità, quando non c'è nessuno a giudicare. Imparare a leggere queste domande significa comprendere cosa cercano davvero le persone quando digitano nella barra di ricerca o nella finestra di una chat.
Un counselor che studia le domande più frequenti poste all'intelligenza artificiale scopre pattern ricorrenti, scopre quali parole usano le persone per descrivere il proprio malessere, scopre quali soluzioni cercano e perché quelle soluzioni spesso non bastano. Questo materiale diventa prezioso per costruire servizi, contenuti e percorsi che rispondano ai bisogni profondi, quelli che stanno sotto la superficie della domanda esplicita.
La paura autentica riguarda il confronto con se stessi
Se andiamo al cuore della questione, la tecnologia in sé non spaventa nessuno. Ciò che inquieta i professionisti della relazione d'aiuto è il sospetto che una macchina possa svolgere il loro lavoro meglio di loro. Che possa cogliere le sfumature delle domande, rispondere in modo brillante e articolato, offrire sollievo immediato a chi soffre. E che tutto il lavoro di ascolto profondo, di empatia coltivata negli anni, di presenza silenziosa, venga percepito come più lento, più complicato, meno efficace.
Questo confronto però poggia su un equivoco fondamentale. ChatGPT elabora testo, produce risposte coerenti, sintetizza informazioni. Fa queste cose molto bene, a volte in modo sorprendente. Ma ChatGPT non sente, non guarda negli occhi, non regge lo spazio del silenzio quando l'altro non trova le parole. Risponde sempre, anche quando la risposta giusta sarebbe restare in attesa.
Il lavoro trasformativo che avviene in una relazione d'aiuto richiede qualcosa che nessun algoritmo può replicare: la capacità di stare nel punto in cui l'altro non sa ancora dire le cose giuste, di accompagnarlo mentre le scopre, di reggere l'incertezza senza riempirla di soluzioni premature. Se un professionista ha perso fiducia in questo valore, il problema non è l'intelligenza artificiale. Il problema è una crisi di identità professionale che esisteva già prima di ChatGPT.
Costruire servizi che parlano all'identità delle persone
Chi vuole creare contenuti e servizi che parlino davvero alle persone deve partire dalle loro domande autentiche. Le keyword e i format editoriali vengono dopo. Prima viene l'ascolto di ciò che le persone chiedono quando pensano che nessuno le stia osservando. Le domande scritte alle due di notte, quelle che non pubblicano sui social, quelle che digitano in ChatGPT senza filtri sociali.
Ogni domanda nasconde una crepa, una storia personale, un frammento di identità che non ha ancora trovato il coraggio di mostrarsi. Il marketing per le professioni olistiche e d'aiuto funziona quando intercetta questi frammenti e offre qualcosa che li riconosce. Quando il messaggio di un servizio risponde a quella parte nascosta della persona, si crea una connessione che nessuna risposta automatizzata può generare.
Un counselor che comunica il proprio lavoro partendo dai bisogni profondi dei potenziali clienti costruisce una relazione di fiducia già dal primo contatto. Il suo sito, i suoi contenuti, le sue proposte parlano una lingua che le persone riconoscono come propria. Sentono di essere viste prima ancora di iniziare un percorso.
L'occasione nascosta dentro la paura
ChatGPT ha reso evidente qualcosa che esisteva già: le persone cercano risposte perfette a domande che in realtà richiederebbero ascolto. Cercano soluzioni rapide a problemi che hanno radici profonde. Cercano conferme invece che esplorazione. Questa dinamica esisteva prima dell'intelligenza artificiale, solo che adesso è visibile in modo lampante.
Per chi lavora nella relazione d'aiuto, questa visibilità rappresenta un'occasione. Osservare come le persone formulano le loro domande, quali risposte le soddisfano e quali le lasciano insoddisfatte, permette di affinare la propria offerta professionale. Permette di capire dove l'intelligenza artificiale arriva e dove si ferma. Permette di posizionarsi esattamente nel punto in cui la tecnologia non può entrare.
I counselor che temono ChatGPT possono trasformare quella paura in uno strumento di lavoro. Studiare le domande, riconoscere i pattern, costruire risposte che vadano oltre la superficie. L'intelligenza artificiale risponde a ciò che le persone chiedono. I professionisti umani possono rispondere a ciò che le persone cercano davvero, anche quando non sanno ancora come dirlo.