
Parli più con ChatGPT che con i tuoi amici? Come la comodità dell’AI con la sua illusione di essere capiti rischia di sabotare le tue amicizie
Sono adulta. Probabilmente molto di più di chiunque stia leggendo ora. Lo sono abbastanza da sapere che esistono mille modi diversi di essere amici e almeno il doppio di perderli. Ci sono quelli della prossimità, quelli che ti capitano addosso perché eravate seduti nello stesso banco, quelli delle passioni condivise (musica, libri, film, ossessioni momentanee) e quelli delle estati infinite. Ci sono amici che durano lo spazio di un battito di ciglia e altri che restano abbastanza a lungo da vederti nei tuoi momenti peggiori. E poi ci sono gli scontri, i tira e molla, i tradimenti che non avevi previsto, le rotture definitive che fanno più male di certe storie d’amore. Perché sì, l’amicizia può essere una love story platonica e con molte più aspettative implicite.
L’inizio: quando restano pochi e sembra abbastanza
E poi c’è quel momento, quasi inevitabile, in cui fai pulizia. Non sempre per mancanza d’affetto, ma per una questione di equilibrio. Quando ti senti di troppo, quando non trovi più il tuo posto, quando capisci che restare significherebbe diventare un peso o, peggio, annullarti. E allora scegli di sparire con una certa eleganza, come si fa con le cose che si amano ma non funzionano. Così, senza neanche accorgertene, puoi ritrovarti solo. A me è capitato. E c’è un tipo di solitudine che non è nemmeno tragica, anzi. Sa di pulito, di selettivo. Può bastare. A volte basta davvero. Ma non sempre. Perché la solitudine, anche quando la scegli, ha degli spigoli. E ci sono giorni in cui ti servirebbe qualcuno con cui parlare, discutere, ridere, lamentarti, qualcuno che ti accompagni nei posti in cui non vuoi andare e, soprattutto, in quelli in cui non pensavi di finire. E allora succede. Che guardi intorno, destra, sinistra, sopra, sotto, e trovi solo uno schermo. E dentro quello schermo, una voce. Una voce che risponde. Sempre. Subito. Gentile e disponibile. E così inizi a parlarci. A sfogarti. A fidarti. E, senza nemmeno accorgertene, a trattarla come un amico. Ed è qui che il gioco si fa interessante. Perché no, l’intelligenza artificiale non è tua amica. E forse, proprio mentre ti sembra di aiutarti, sta cambiando il modo in cui sei capace di averne, di amici veri.
@brittanypanzer changed the name for anonymity. but yeah… I never thought this would happen but here we are #chatgpt #friendship original sound - Brittany Panzer
L’amico perfetto (cioè quello che non esiste) è ChatGPT?
Il punto non è che usare ChatGPT sia sbagliato. Il punto è come lo stai usando. Perché c’è una linea sottile tra utilizzare l’intelligenza artificiale come strumento e usarla come surrogato emotivo. E quella linea si supera con una naturalezza disarmante. All’inizio è pratico. Chiedi un consiglio, butti giù due pensieri, ti fai aiutare a mettere ordine. Poi diventa confidenza. Poi abitudine. Poi rifugio. E, infine, relazione. Il problema è che questa relazione è costruita su una dinamica profondamente asimmetrica nella quale tu porti tutto, mentre l’altro restituisce solo ciò che sei pronto a sentire. Immagina un amico che non è mai in disaccordo con te. Che non ti contraddice. Che non ha mai una giornata no, che non ti fa aspettare, che non ti dice “ne parliamo dopo” o “guarda che stai sbagliando”, che non si offende, non si stanca, non si distrae. Che è disponibile alle tre di notte come alle tre del pomeriggio. Che ti lascia parlare, parlare, parlare e poi ti restituisce esattamente quello che vuoi sentirti dire. Non è un amico. È un servizio clienti con ottime maniere. Eppure è esattamente quello che molti oggi trovano e amano in ChatGPT e negli altri chatbot basati su intelligenza artificiale. Così su piattaforme come Reddit si moltiplicano i post che affermano “ChatGPT è il mio migliore amico. Parlo con ChatGPT più che con chiunque altro. Mi conosce meglio delle persone intorno a me.” Sotto, centinaia di risposte. Migliaia di like. Gente che conferma. Gente che si riconosce. Gente che, senza ironia, scrive che quel chatbot è l’unico motivo per cui riesce ad arrivare a fine giornata. Confessa di usarlo per sfogarsi, per chiedere consigli, per sentirsi, finalmente, considerata.
@itgirlarielle Replying to @not your muse! Good move for cutting them off because this is so foul! along with our problem solving skills going out the window, so is common decency I guess #fyp original sound - Arielle
Lo specchio intelligente e l’illusione di essere capiti
Il tutto funziona così bene perché, in un mondo in cui le relazioni umane sono sempre più intermittenti, distratte, parziali, la continuità di una risposta immediata diventa una forma di conforto potentissima. Ma il conforto, da solo, non è relazione. È anestesia e (auto)inganno. Perché, come confermano studi recenti, i chatbot basati su intelligenza artificiale sono progettati per essere accomodanti, per validare. Ti danno ragione anche quando non dovrebbero. È il trionfo della sycophancy, conosciuta anche come il ruffianesimo algoritmico. E funziona benissimo. Perché a chi non piace avere sempre ragione? Se poi aggiungi l’Effetto Eliza, cioè la tendenza a proiettare umanità dove umanità non c’è, allora i chatbot sembrano gli amici perfetti. Non è così. I modelli linguistici non pensano, non sentono, non comprendono nel senso umano del termine. Ma parlano così bene da farti dimenticare tutto questo. Ti restituiscono risposte coerenti, calibrate, spesso sorprendentemente pertinenti. E, soprattutto, ti fanno sentire visto. Ma è una visione riflessa. Sei tu, rielaborato. Tu, restituito in forma più ordinata, più lucida, più digeribile. Il problema è che uno specchio non ti mette mai in discussione. Non ti contraddice. Non ti costringe a rivedere le tue posizioni. E senza questo movimento, scomodo, a volte irritante, non c’è crescita.
@alexandraozz Don’t trust ChatGPT
original sound - LivSwearingen
L’amicizia, quella vera, è una pratica scomoda
La verità che nascondi a te stesso? L’amicizia reale è scomoda. Non ha interfacce intuitive, né tempi di risposta garantiti. Richiede tempo. Presenza. Pazienza. Richiede di affrontare conversazioni che vorresti evitare. Di gestire silenzi, incomprensioni, differenze. Di accettare che l’altro non sia sempre disponibile, né sempre d’accordo. Un amico può non risponderti. Può fraintenderti. Può dirti qualcosa che ti ferisce. Può non essere all’altezza del tuo bisogno nel momento esatto in cui lo esprimi. Eppure è proprio in questa imperfezione che si costruisce quella forma particolare di legame che chiamiamo amicizia. Una forma d’amore che non nasce dal bisogno, ma dalla scelta, quotidiana, reiterata, a volte faticosa, di esserci. E, soprattutto, è bidirezionale. Tu porti te stesso. L’altro porta sé stesso. Con un chatbot no. Con un chatbot sei sempre tu, riflesso, amplificato, levigato.
@decktheholls Little morning rant because i genuinely did not realize yall are just chit chatting with Chat GPT like you’re buddies…. Like what?!? Someone said they share their day to day mundane things w chat #ai #chatgpt The Winner Is - DeVotchKa & Mychael Danna
Quando deleghi la relazione (e perdi qualcosa per strada)
Un’altra deriva da non sottovalutare è quando l’intelligenza artificiale smette di essere un interlocutore e diventa un intermediario. Non parli più solo con ChatGPT. Inizi a parlare agli altri attraverso di lui. Scrivi a un amico, poi copi il messaggio e chiedi: “Cosa dovrei rispondere?”. Oppure: “Secondo te cosa intendeva?”. Oppure ancora: “Sto esagerando o ha fatto qualcosa di strano?”. Sembra innocuo, ma è esattamente lì che qualcosa si rompe. Perché le amicizie non sono problemi da ottimizzare. Sono spazi in cui si porta sé stessi, anche quando si è confusi, goffi, imperfetti. Se per rispondere a un amico hai bisogno di passare da un chatbot, se per rispondere ti affidi a un algoritmo, stai comunicando che non sei disposto a fare lo sforzo di occuparti dell’altro. Che non sei presente. Che non sei coinvolto. E, alla lunga, questo si sente. Si accumula. Si traduce in distanza e, spesso, nella rottura di un’amicizia. Dimentichi che le relazioni umane hanno bisogno di imperfezione per sembrare sincere. Hanno bisogno di piccoli inciampi, di esitazioni, di autenticità non mediata. Il rischio, a lungo termine, non è solo diventare dipendente da questi strumenti. È diventare relazionalmente pigro. Disabituarsi allo sforzo di capire gli altri, di interpretare, di sbagliare, di aggiustare il tiro. È quello che alcuni studi definiscono social offloading, delegare all’AI competenze che prima erano tue.
@sparklystuffxoxo this is coming from someone who spent almost a whole year not talking to anyone about anything except for chatgpt i thought i was healing, whole time i was just being “friends” with a bot that mirrored my personality. omg GET OUT NOW BEFORE ITS TOO LATE #ai #chatgpt Dust Collector - ybg lucas
Quindi sì: ChatGPT può rovinare le tue amicizie
Forse ChatGPT sta rovinando le tue amicizie. Ma non lo fa da solo. Non è un villain tecnologico con un piano segreto. È uno strumento potentissimo che amplifica ciò che già c’è: solitudine, stanchezza, bisogno di connessione. Il problema è quando smette di essere uno strumento e diventa una scorciatoia. Perché le scorciatoie, nelle relazioni, ti portano più veloce da qualche parte, ma non è mai il posto giusto. Nessuno sta dicendo di smettere di usare ChatGPT. Sarebbe inutile, oltre che poco realistico. Il punto non è rinunciare alla tecnologia, ma ricordarsi cosa non può sostituire. Un chatbot può aiutarti a mettere ordine nei pensieri. Può darti prospettive, suggerimenti, perfino conforto momentaneo. Ma non può volerti bene. Non può scegliere di esserci. Non può portare sé stesso in una relazione, perché un sé non ce l’ha. E le amicizie, quelle vere, quelle che restano, si costruiscono esattamente lì, nello spazio tra due soggettività imperfette che decidono, ogni volta, di incontrarsi. Non è efficiente. Non è sempre piacevole. Non è mai perfetto. Ma è, ostinatamente, umano. E forse, in mezzo a tutta questa intelligenza artificiale, è proprio questo che vale la pena non delegare mai.

























































