Professioni 4.0
L’Intelligenza Artificiale tra etica, diritto e mercato
Dott. Riccardo Albanesi (AteneoWeb):
Buongiorno a tutti.
È con profonda emozione ma anche con un pizzico d’orgoglio che vi do il benvenuto, a nome di AteneoWeb, a questo evento che abbiamo organizzato in occasione del 25º anno della nostra fondazione.
Vedere tutte queste persone, oggi, è un enorme piacere perché è anche la testimonianza di un percorso che abbiamo condiviso per oltre un quarto di secolo.
Desidero innanzitutto rivolgere ringraziamenti a chi ha reso possibile questa giornata, a cominciare dall’Università Cattolica del Sacro Cuore di Piacenza che ci ospita in questa bellissima sede. Un ringraziamento volevo farlo anche al Preside della facoltà di economia e giurisprudenza, il professor Marco Allena, per la squisita ospitalità e per la fattiva collaborazione.
Ringrazio per la collaborazione anche l’Ordine dei Dottori Commercialisti quello degli Avvocati, di Piacenza, e chiaramente i protagonisti di quello che sarà il nostro pomeriggio; nella prima parte, la tavola rotonda coordinata dal dottor Gianmaria Vianova che vedrà partecipare la dottoressa Rebecca Mariani, il professor Riccardo Manzotti, il dottor Giovanni Emmi e l’avvocato e professor Paolo Flavio Mondini, nonché i rappresentanti delle aziende che parteciperanno al successivo workshop, CESI Multimedia, ISI-it Zucchetti e Artificial Italian.
Un grazie anche alla Banca di Piacenza che ci ha supportato nell’organizzazione di questo evento, ma direi, più in generale, di ringraziare tutti i presenti e professionisti, partner e amici, perché credo che sia proprio la vostra presenza il regalo più bello per questi venticinque anni.
Venticinque anni sono effettivamente un’era geologica e lo sono ancora più nel mondo della tecnologia delle professioni.
Quando nel 2000 concepimmo l’idea di AteneoWeb, il mondo era completamente diverso. Eravamo alle soglie dell’era digitale di massa. Negli studi professionali le procedure telematiche erano solo ai primi passi. Internet era una promessa spesso ancora molto lenta e rumorosa.
E l’idea di poter trovare anche dei contenuti, dei software, degli aggiornamenti su un portale web, sembrava quei tempi una scommessa azzardata. Ma a noi la scommessa è piaciuta e AteneoWeb è nata proprio dalla volontà di semplificare il lavoro dei professionisti, sfruttando una tecnologia innovativa che era finalmente diventata accessibile a tutti.
Oggi, venticinque anni dopo, siamo di fronte a un altro bivio enorme. Venticinque anni fa era il web e la dematerializzazione, adesso l’intelligenza artificiale.
Ecco perché abbiamo scelto proprio questo tema per celebrare questo anniversario. L’intelligenza artificiale non è solo un uno strumento, non è un nuovo software per quanto potenziato, ma è un vero e proprio cambiamento di paradigma che ci interroga anche su aspetti che riguardano proprio il nostro modo di essere professionisti, commercialisti, avvocati e in genere di essere umani, persone. Ecco perché abbiamo pensato di invitare a questo momento di confronto rappresentanti delle nostre categorie, ma anche soggetti che non direttamente partecipano a questo contesto, ma che ci possono dare il loro punto di vista; perché a volte, quando ci si guarda troppo “tra di noi”, si perdono degli aspetti molto importanti.
Per guidar in questa analisi, cedo la parola al dottor Gianmaria Vianova che farà da moderatore a questo incontro.
Auguro a tutti voi buon pomeriggio e un buon anniversario ad AteneoWeb.
2. Introduzione della Tavola Rotonda
Dott. Gianmaria Vianova (moderatore):
Un grazie a Riccardo per l’introduzione.
Sì, come anticipato, quella di oggi è una grande occasione non solo per festeggiare un grande traguardo, ma anche perché è bello farlo guardando al presente, ma soprattutto al futuro, in una tecnologia che ci ha un po’, come dire, cambiato già la vita: l’intelligenza artificiale, in tutte le sue sfumature che oggi proveremo ad analizzare.
È molto bello farlo, tra l’altro, con una tavola rotonda con quattro punti di vista differenti che ci aiutano, appunto, a vedere il fenomeno da più angolazioni e magari aprirci a nuove riflessioni.
3. Primo giro di tavolo: impatto e percezione dell’IA
Dott. Gianmaria Vianova (moderatore):
Comincerei intanto con un “giro” di presentazione; presenterò quindi i nostri ospiti e chiedo a ciascuno, in 30 secondi proprio per cominciare, di dirci come vivono loro l’intelligenza artificiale oggi nel loro lavoro e nella loro vita.
Qui alla mia sinistra il dottor Giovanni Emmi che è dottore commercialista e componente di commissioni nazionali, formatore e autore in materia di intelligenza artificiale. Chiedo a lui per primo di dirci brevemente cosa significa intelligenza artificiale oggi nel suo lavoro e nella sua vita professionale.
Dott. Giovanni Emmi:
Grazie, grazie a tutti, grazie a Riccardo, grazie a AteneoWeb di avermi consentito di essere presente e dare un punto di vista che, come sentite dall’accento, viene da lontano. Viene da lontano, però, in qualche modo, ci ha portato ad avvicinarci al mondo della professione e ai nostri colleghi che si trovano più a nord della nostra Sicilia. Perché il mio rapporto con l’AI è un rapporto, in qualche modo, di frantumazione di alcune barriere, di alcuni punti di vista e di alcuni modi di lavorare.
A noi ha consentito di velocizzare moltissimo le attività. Noi la utilizziamo dal 2022 e la utilizziamo costantemente. Oggi stiamo lavorando sui bilanci, questo è il periodo ideale, e stiamo svolgendo delle attività di analisi e controllo, che prima facevamo manualmente, utilizzando degli agenti di intelligenza artificiale che ci permettono di confrontare tutta una serie di informazioni, tutta una serie di dati, e di darci poi delle risposte su eventuali errori. Che è poi uno dei problemi principali dei commercialisti, soprattutto sulle dichiarazioni che vanno a finire all’Agenzia delle Entrate.
L’AI ci consente oggi, per farla breve, di ridurre gli errori e quindi la possibilità di commettere un danno al cliente
Dott. Gianmaria Vianova (moderatore):
Proseguendo a sinistra abbiamo il professor Paolo Flavio Mondini, avvocato e professore associato di diritto dell’economia presso l’Università Cattolica del Sacro Cuore.
Pongo la stessa domanda.
Prof. Paolo Flavio Mondini:
Sì, anche io naturalmente ringrazio. Io gioco in casa perché sono di questa sede, però diciamo che qua intervengo più che altro anche come professionista e la parola che userei con riferimento al mio rapporto con l’intelligenza artificiale è attenzione.
Attenzione perché questo è un periodo in cui effettivamente bisogna stare attenti alle evoluzioni. Quindi curiosità sulle continue evoluzioni.
Io frequento ovviamente molti blog, molte “news”, feed o banalmente social network come LinkedIn, e noto che ogni notizia, o una notizia su due, riguarda l’intelligenza artificiale, (spesso anche abbastanza inutilmente). Ma presenta novità, evoluzioni; quindi è un momento di grandi cambiamenti, effettivamente. Un po’ quelli che abbiamo vissuto, sono giovane ma non più così giovane, quando è entrato veramente in maniera effettiva il web nella nostra professione.
Attenzione però, anche perché l’utilizzo di intelligenza artificiale nella professione, e dopo tornerò su quale sia l’effettivo utilizzo, implica una serie di rischi, e a questi rischi bisogna stare attenti. Evidentemente svolgendo una professione che fa della attenzione proprio un paradigma essenziale.
Dott. Gianmaria Vianova (moderatore):
Nel proseguire il giro di tavolo abbiamo il professor Riccardo Manzotti che è professore ordinario di filosofia teoretica presso la IULM di Milano e porta un doppio curriculum perché è anche ingegnere.
Ci porta quindi un doppio sguardo su questa tecnologia.
Prof. Riccardo Manzotti:
Ed è anche questo un po’ un segno dei tempi: che gli ingegneri diventano filosofi, e i filosofi devono essere un po’ ingegneri.
Nel mio campo io lavoro, ovviamente, nell’ambito dell’università e credo che l’intelligenza artificiale oggi rappresenti un totale cambio di paradigma.
Al momento, secondo me, sarebbe più opportuno parlare di conoscenza artificiale perché questi modelli non sono in realtà modelli di intelligenza, sono modelli di conoscenza. Sono modelli, infatti si chiamano modelli di linguaggio di grandi dimensioni, gli LLM, e il linguaggio è lo strumento della conoscenza; quindi sono strumenti che sanno, e nel momento in cui loro sanno, e la conoscenza non è più una prerogativa di noi esseri umani, cambia il valore che ha la conoscenza per sé stessa.
Noi, come docenti universitari, fino a ieri avevamo un valore perché sapevamo, o almeno dovevamo sapere. Oggi c’è una macchina che sa. E la conoscenza, l’expertise, non è più una prerogativa degli esseri umani.
Quindi la conoscenza in quanto tale non vale più e deve valere soltanto se diventa il mezzo per aggiungere qualche cosa in più. Da questo punto di vista credo che l’intelligenza artificiale abbia cambiato completamente il rapporto con la conoscenza.
Dott. Gianmaria Vianova (moderatore):
Per concludere il giro abbiamo Rebecca Mariani che è dottoressa magistrale in giurisprudenza e gestione d’azienda e dottoranda di ricerca presso l’Università Cattolica del Sacro Cuore.
Dott.ssa Rebecca Mariani:
Ringrazio tutti anch’io per questa opportunità e per questo scambio di idee.
Potrà sembrarvi strano, ma probabilmente la mia è la visione un po’ meno, come dire, fiduciosa e aperta, probabilmente, nonostante la mia giovane età.
La parola che utilizzerei per descrivere il mio rapporto con le AI è “prudentemente interessata”.
Io sono giovane, la mia età dovrebbe essere uno sprone, un incentivo all’utilizzo di questi strumenti, nuovi strumenti che chiaramente di cui chiaramente sono interessata. Ma con prudenza, con cautela. Mi sono anche un po’ risposta che è normale assumere un po’ questo atteggiamento nei confronti di queste nuova realtà, perché Io mi sto approcciando ora al mondo del lavoro.
Sono una giovane professionista, giovane dottoranda, mi occupo anche di consulenza. Nel mio vissuto, diversamente dalle persone che magari hanno più esperienza di me, non ho mai sperimentato una rivoluzione così profonda nel mio modo di lavorare, nella mia vita. E probabilmente questa prima è anche quella che veramente cambierà il modo in cui lavorerò, il modo in cui ho studiato, il modo in cui mi ha approccerò al lavoro d’ora in poi.
Quindi sì, prudenza e cautela.
4. Approfondimento tecnico e professionale: Commercialisti e Avvocati
Dott. Gianmaria Vianova (moderatore):
Il tema l’abbiamo anticipato. Nel 2001 parlavamo di digitalizzazione. Avere il sito web era già un passo in avanti, per essere “moderni”, contemporanei al passo con i tempi.
Venticinque anni dopo parliamo di intelligenza artificiale, cioè di riuscire a dialogare con una macchina come se fosse quasi una persona “alla pari”, con una conoscenza però superiore, anche per la velocità di ragionamento.
Sappiamo, anche dalle analisi, che dai tempi della rivoluzione industriale non c’era mai stata un’intensità di investimenti tale su una nuova tecnologia.
E allora la domanda è: questa tecnologia è davvero dirompente?
Mi rivolgo in questo caso al dottor Emmi. Lei ha sostenuto in più interventi che chi non la considera, chi non la padroneggia, rischia di essere un po’ tagliato fuori dal mercato, di non riuscire più a rispondere alle esigenze. Cosa intende con questo e cosa l’ha portata a fare questa riflessione?
Dott. Giovanni Emmi:
La considerazione sul fatto che non padroneggiarla vuol dire “essere tagliati fuori” dal mercato, viene soprattutto, dal punto di vista dei commercialisti, che certamente è una tecnologia con la quale dovremmo fare i conti perché già oggi sta trasformando il modo di lavorare negli studi e trasformerà sempre di più il modo di lavorare negli studi.
Ci sarà, se continuerà così, come è facile prevedere, una separazione netta fra gli studi che la utilizzano e che la applicano in maniera pervasiva e chi non la applica. E il futuro naturalmente è che gli studi che la applicheranno in maniera pervasiva avranno più produttività, più possibilità di svolgere delle attività in maniera rapida, più puntuale e più precisa.
Poi è un’attività che comunque si scontra anche con tutta una serie di norme che vengono sia dall’AI ACT che dal nostro codice deontologico che è stato di recente modificato, e che ci dà la possibilità comunque l’obbligo di tener conto del fatto sempre che siamo professionisti.
Quindi ad aumentare la produttività bisogna stare sempre molto attenti, ma certamente non frenare su quella che è una novità di questo tipo. Io sono per accelerare; un atteggiamento contrario all’utilizzo dello strumento, secondo me, oltre che essere anacronistico è anche pericoloso.
Quindi il mio punto di vista è che bisogna utilizzarla “al massimo”, cercare di padroneggiare e capire lo strumento; perché siamo sempre dei professionisti e dobbiamo gestire questo processo.
Per gestire questo processo un aspetto fondamentale è la formazione. La formazione la devi avere sia se la utilizzi, ma anche se non la utilizzi, perché poi alla fine nei programmi di contabilità “ce l’abbiamo dentro”; nei programmi, nelle banche dati, anche su WhatsApp “ce l’abbiamo dentro”. Se non conosco esattamente lo strumento, e quindi la pericolosità dell’utilizzo di dati da inserire in un sistema di intelligenza artificiale, già in quel momento sono fallace come professionista.
Quindi l’AI bisogna saperla governare, imbrigliare, ma dal proprio punto di vista. Ragionando in qualche modo sulla metafora del cavallo, l’idea è quella di procedere al galoppo; imbrigliarla, ma per procedere sempre al galoppo.
Dott. Gianmaria Vianova (moderatore):
Abbiamo detto produttività. Abbiamo parlato di “galoppare” con l’intelligenza artificiale.
Sappiamo che incrementa, per certi compiti, in maniera anche molto efficace, la velocità con cui possiamo realizzarli.
Quindi, continuando il giro di tavolo, mi rivolgo al professor Mondini. Anche nella ricerca giurisprudenziale l’AI ha cambiato le cose; nel senso che per un lavoro di ore o giorni, ora, interrogando l’intelligenza artificiale, si può invece avere una risposta in pochi secondi.
La domanda è quanto questa risposta dobbiamo considerarla affidabile e quanto c’è il rischio, invece, che questa analisi, non essendo stata filtrata da un umano, esca “appiattita”; perché i risultati escono per inferenza su quanto già dato in pasto all’algoritmo e su come è stato istruito. Quindi le chiedo una sua visione in tal senso.
Prof. Paolo Flavio Mondini:
Certo, molto difficile esprimerla in pochi minuti, ma tant’è.
Io sono nato, professionalmente, quando si stava passando proprio dai repertori del Foro Italiano, che gli avvocati con i capelli bianchi ricordano ma certamente la dottoressa Mariani non sa neanche cosa siano, che erano dei volumoni di qualche migliaio di pagine, di difficilissima consultazione. Ma nel frattempo stavano nascendo le banche dati elettroniche, quelle col CD che già oggi non esistono più. E già ai tempi si diceva, e mi diceva il mio professore che ovviamente aveva qualche anno in più di me, che “per fare una buona ricerca bisogna partire dal repertorio del foro, per forza, perché altrimenti c’è il rischio di perdersi qualche cosa”.
Questo oggi è ovviamente fuori da ogni logica, perché l’evoluzione della professione, così come della ricerca scientifica, va al passo necessariamente con l’evoluzione tecnologica. E oggi si vive un po’ il medesimo cambiamento. Oggi nessuno mette più in discussione la bontà di una ricerca effettuata su una banca dati elettroniche effettuata con parole chiave tradizionali, mentre si mette in dubbio la bontà di una ricerca effettuata con domande di linguaggio naturale.
Ora, sono convinto che allo stato attuale gli strumenti forniti sono ancora approssimativi circa la profondità dei risultati della ricerca effettuata con linguaggio naturale. Ma questo vale certamente per gli strumenti “stranieri” che stanno entrando in Italia. Cito soprattutto i due più famosi, internazionali, che sono valutati billions, che sono Harvey da una parte, Legora dall’altra, che si contendono il mercato legale a livello internazionale; poi ce ne sono una miriade italiani. Ecco quei due si sono affacciati nel mercato italiano senza neppure avere la banca dati, per darvi l’idea. Quindi, dal punto di vista della ricerca, per capire quanto sia buona quella ricerca, per limitarsi solo a questa piccola fetta di attività del legale, occorre anzitutto capire qual è la banca dati sottostante rispetto al linguaggio che lavora in maniera molto rapida.
La velocità. Certamente il risultato è appariscente perché chiunque si sia confrontato con chat GPT, piuttosto che con altri strumenti analoghi, rimane affascinato dalla capacità di risultato.
La profondità della ricerca è forse invece ancora troppo insoddisfacente per un risultato professionale.
Ma ovviamente non è soltanto quello, anzi io direi che non è quello il lato vero dell’intelligenza artificiale, quanto probabilmente qualcosa a cui noi avvocati non siamo ancora abituati; perché per noi “la macchina ci aiuta nella ricerca”, ma lo scrivere resta evidentemente una nostra prerogativa irrinunciabile. Ecco, probabilmente la capacità di scrittura della macchina è qualcosa che rappresenterà un’evoluzione notevolissima in termini di rapidità. Perché è un po’ come la bozza elaborata dal giovane che l’avvocato più anziano o comunque più esperto è in grado di elaborare.
Quando ci metteremo, forse chi è più tecnoentusiasta prima e chi è più tecnoscettico dopo, a lavorare con le bozze, con l’intelligenza artificiale, forse si compirà quel passo in più che allo stato mi sembra ancora ben poco sfruttato.
Però ci sono tante altre cose da dire che dirò magari nel prossimo passaggio per non rubare tempo ai colleghi.
5. Analisi filosofica ed etica: coscienza, valori e AI ACT
Dott. Gianmaria Vianova (moderatore):
Beh, allora colgo lo spunto. Faccio un salto poco più in là nel tavolo, e mi rivolgo direttamente alla dottoressa Mariani che un po’ ci aiuta in questo giro di tavolo a interpretare quello che è stato l’arrivo dell’intelligenza artificiale non solo nella professione, ma anche nel concludere il percorso di studi.
Prima si è parlato di prudenza, di attenzione nell’utilizzare questa tecnologia.
Le chiedo di sviluppare questa sua percezione che ci ha già anticipato; questa tecnologia sta potenziando la nostra capacità o rischia di essere controproducente, nel lungo periodo, per le nostre abitudini di studio e lavoro?
Dott.ssa Rebecca Mariani:
Allora, è indubbio, secondo me, che l’intelligenza artificiale sia un potenziamento in termini di velocità, rapidità nel poter apprendere.
A mio avviso però è necessario distinguere il potenziamento delle modalità con cui si apprende e il potenziamento della capacità di apprendere. Detto in altre parole, chi vorrà informarsi e chi si è voluto informare lo ha fatto sino in questo momento con altri strumenti che non erano l’intelligenza artificiale, manualistica, banche dati e chi più ne ha più ne metta; perché comunque fino a questo momento abbiamo fatto, e si poteva fare. Chi invece preferirà rimanere in una, diciamo, conoscenza superficiale, lo farà anche con l’intelligenza artificiale. Dunque non si potenzierà la capacità di apprendere, ma le modalità con cui si apprende, quindi in termini di rapidità, di velocità, nel poter scrivere, nel poter confrontarsi.
Chiaramente a mio avviso, non potrà essere l’unico mezzo di apprendimento; sarà sempre necessario confrontarsi anche con altre modalità di “apprendimento”, che siano manuali, che siano banche dati, che siano quello che vorremo e che, in futuro, ci sarà data la possibilità di utilizzare.
La grande sfida dei nostri tempi sarà quella di utilizzare le AI per far ricerca. Io ora, in questo momento, sto pensando alla mia attività di dottoranda, nel fare la professione, senza che però questa prenda il sopravvento.
Ci dovrà essere sempre comunque un controllo dell’umano dietro. Perché secondo me l’intelligenza artificiale deve essere utilizzata come una compagna di vita; cioè deve “accompagnare”. Bisogna in qualche modo dialogarci, non sfidarla. Ma dialogarci con un approccio consultivo, perché ricordiamoci sempre che l’intelligenza artificiale non ha una coscienza e quindi ciò che gli si chiede di fare lo fa, senza porsi domande,
Quindi, detto questo, secondo me non verrà potenziata la capacità di ognuno di apprendere, ma le modalità con cui si apprenderà. Un domani non verrà più sfogliato un manuale ma verrà caricata la sua versione in una piattaforma che utilizzerà l’intelligenza artificiale. Tramite il prompt io darò un’indicazione su come voglio che questa intelligenza artificiale mi esamini il manuale, ma a seguito di questo un controllo dovrà sempre essere effettuato, a mio avviso, e la capacità di apprendere sta in questo: la capacità di studiare, di analisi.
Dott. Gianmaria Vianova (moderatore):
Sul rapporto tra intelligenza artificiale e umani, il professor Manzotti si interroga, credo quotidianamente. È proprio sulla coscienza e sul pensiero che ha una sua teoria.
È arrivata questa intelligenza artificiale; credevamo di essere speciali rispetto a tutto il resto della biosfera e ora troviamo qualcosa che è la nostra copia, potenziata in molti aspetti.
Questo cosa cambia nel nostro approccio al lavoro, ma anche il nostro approccio nella vita quotidiana, dal suo punto di vista?
Prof. Riccardo Manzotti:
Certo. Allora, la cosiddetta intelligenza artificiale ha chirurgicamente separato il linguaggio e la conoscenza, dall’esistenza e la coscienza. Cosa voglio dire? Voglio dire che fino a 5 anni fa se uno parlava era cosciente. Se uno arrivava dal dottore e dopo un trauma gli chiedevano “Ma lei chi è?” e uno rispondeva: “Sono Riccardo Manzotti”, era sufficiente per essere sicuri che fosse cosciente e che fosse una persona?
Notate che noi diciamo “esseri umani” e non “esseri macchine”, perché solo gli umani hanno la caratteristica dell’”essere”. “Human beings”; non si dice “machine beings”. Perché noi ci attribuiamo il fatto di esistere.
Nel momento in cui l’intelligenza artificiale ci ha tolto la prerogativa, l’esclusività del linguaggio e quindi della conoscenza, è stato fatto un esperimento filosofico straordinario. Come dicevo prima, noi abbiamo chirurgicamente separato linguaggio e conoscenza da coscienza ed esistenza. Improvvisamente ci sono delle macchine che sanno, e sanno veramente tutto al netto di allucinazioni, al netto di errori che comunque anche noi facciamo. “Sanno senza essere”.
Noi, fino a ieri, le due cose le avevamo sempre viste insieme; e allora questo ci pone tutta una serie di interrogativi inevitabili sulla responsabilità, sul controllo.
La settimana scorsa parlavo, non vi dirò di quale grossa compagnia italiana, con un amministratore delegato che mi ha detto che avendo bisogno di una consulenza per poter, diciamo così, intervenire su una rete importante, ha chiesto all’intelligenza artificiale di fargli la consulenza. Dopodiché ha chiamato la società di consulenza e gli ha detto: “Sentite, io vi mando la consulenza che desidero che voi mi mandiate, che me l’ha già fatta, è pronta, ed è proprio quella che voglio. Voi sotto mettete la firma e io vi pago; perché è quello che io chiedo alla vostra società”. E allora hanno risposto: “Sì, va bene, ma noi a cosa serviamo?” Allora, da questo punto di vista prima si diceva “ci deve essere sempre il controllo umano”; in realtà ci deve essere per due motivi. Da un lato perché ci deve essere un essere umano che si prende la responsabilità, dall’altro si potrebbe dire ci deve essere un essere umano perché questo ha, diciamo così, il controllo, la competenza e la capacità critica. Questo secondo, diciamo così, aspetto, si va progressivamente erodendo; anche perché noi oggi parliamo di un’intelligenza artificiale che è stata messa in circolazione nel 2022. Sono passati 4 anni, ma cosa succederà fra 10 anni di sviluppo ininterrotto?
Noi diciamo che oggi l’intelligenza artificiale non è in grado di essere precisa in quello che fa, ma già adesso, in tanti campi, noi ci fidiamo di più se sappiamo che una decisione è supportata dalla competenza delle macchine piuttosto che non da un essere umano. Provate a prendere un taxi a Berlino con mezz’ora di tempo per arrivare all’aeroporto; e ditemi se voi preferite un tassista che si affida a Google Maps o un tassista che si affida alla sua competenza umana. In molti settori già ci affidiamo di più alle macchine.
Quindi, ripeto, il punto di discrimine è questa separazione tra linguaggio e conoscenza da una parte e coscienza ed esistenza dall’altra.
Fino a ieri nell’essere umano le cose erano sempre intrecciate insieme, erano inseparabili; oggi non lo sono più e quindi ci troviamo di fronte ad una tecnologia che scardina ciò che avevamo tra le mani.
Dott. Gianmaria Vianova (moderatore):
La domanda è quindi “come noi possiamo reagire, come società, a questo tipo di tecnologia?”. Abbiamo visto che l’Unione Europea, come spesso accade, è stata una delle prime, anzi la prima, a regolamentare questo fenomeno provando a mettere dei paletti, provando a dare delle norme, delle guide, per poter gestire questa tecnologia. E quindi mi rivolgo al professor Mondini: ci troviamo di fronte all’AI ACT, quindi a norme che si applicano ad una tecnologia che è ancora gran parte sconosciuta a livello di impatto. Manca anche una giurisprudenza a supporto, perché abbiamo delle norme ma non abbiamo precedenti. Quali sono le zone d’ombra di questo aspetto?
E si è parlato di responsabilità; se ci troviamo di fronte ad un’intelligenza artificiale che ci suggerisce una strategia sbagliata per il nostro cliente, si rivela poi fallace, la responsabilità di chi è? Dell’intelligenza artificiale, o di noi che l’avvalliamo.
Prof. Paolo Flavio Mondini:
Sì, quasi sono domande filosofiche più che giuridiche.
Cerco di partire dall’esperienza concreta che finora è emersa nei tribunali. Che non è poi così poca perché ci sono ormai diverse decisioni dei tribunali di merito che hanno avuto a che fare con atti redatti palesemente con l’intelligenza artificiale. E sono finiti su tutti i giornali. Un po’ per la curiosità dell’evento, un po’ perché, appunto, è nuovo questo fenomeno.
Però è dell’altro giorno una notizia del Sole 24 ore, del caso del tribunale di Verona, quasi da “matita blu”, dell’avvocato che ha lasciato il prompt dell’atto, nell’atto; ha mandato al tribunale un atto con “Se vuoi posso proseguire con l’inserimento di questa parte in un atto completo di atto di citazione in opposizione”. E qua, naturalmente, il giudice non ha potuto far di meglio, e si è particolarmente divertito nello scrivere una sentenza in cui non solo condannava la parte, non l’avvocato, a responsabilità aggravata, ma anche a una sanzione aggiuntiva.
E direi che il repertorio di situazioni di questo tipo non è così raro. Oltre al caso, direi quasi divertente del “promptato” erroneamente nel testo dell’atto di opposizione, c’è il caso dello “stampone”, passatemi il termine, cioè il caso degli atti che sono redatti in maniera standardizzata, direi da un’intelligenza forse scarsa, o da intelligenza artificiale quantomeno che non adatta neppure i nomi delle parti. O, altro caso concreto di responsabilità aggravata, è quello più classico delle allucinazioni; e questo è un dato sia presente nella giurisprudenza degli Stati Uniti, ma anche una giurisprudenza nostrana, diciamo domestica; abbiamo già avuto delle sentenze e questi certamente sono dei casi di responsabilità anche professionale.
Direi che è indubbio perché comunque le norme prevedono comunque il controllo umano per nell’ambito della giustizia, per la redazione di sentenze sia, ovviamente, per la produzione di atti da presentare in tribunale.
E però, questa forse è la parte più banale del fenomeno; delicata, certamente, in questa fase di avvicinamento dove l’attenzione è probabilmente mancata. Ma sono altri forse i temi più delicati ed effettivamente quello dell’andare a comprendere entro che termini, entro che limiti, resta l’ambito, diciamo, irrinunciabile del controllo umano, quantomeno sulla strategia legale, effettivamente, sulle decisioni di vita.
Questa è più o meno l’impostazione sostanziale delle norme emanate in questo settore, dove certamente la riconduzione alla responsabilità umana passa necessariamente per un’omessa attività. Quella attività che rimane, all’interno della sfera del rapporto macchina-utente, quindi macchina-avvocato, e difficilmente indagabile dall’esterno, a meno di immaginare possibili provvedimenti di ordine di esibizione da parte del tribunale, ma mi sembra un po’ difficile, oppure nell’ambito del controllo più generale, cioè prima della fuoriuscita dalla propria sfera giuridica.
Evidentemente il professionista ha comunque una imputazione di responsabilità, direi quasi oggettiva, sulla produzione, che credo resterà l’ambito in cui la residua professionalità, quella ineliminabile, rimarrà a prescindere da quale sia l’evoluzione, immagino molto rapida, come ricordava prima il professor Manzotti, della produzione delle macchine che saranno in grado, credo, di controllare tranquillamente, tra qualche tempo, che non ci siano allucinazioni, che non ci siano non coincidenze tra i nomi delle parti, produzione degli atti o addirittura prompt rimasti nel testo. Grazie.
6. Deontologia e riservatezza dei dati
Dott. Gianmaria Vianova (moderatore):
E a proposito di regole e norme di comportamento, l’altro grande tema è quello del rapporto tra deontologia e utilizzo di questi strumenti.
Noi sappiamo che la deontologia professionale, ad esempio, impone riservatezza assoluta. Parliamo di una tecnologia che lavora con dati che vengono utilizzati per fare training, cioè allenare l’algoritmo a generare risposte soddisfacenti e corrette.
Quindi mi voglio rivolgere al dottor Emmi al riguardo; qual è il rapporto tra queste regole e l’utilizzo dell’intelligenza artificiale e quanto siamo davvero disposti a sacrificare, o no, sull’altare della produttività, del poter velocizzare i nostri processi interni.
Dott. Giovanni Emmi:
Sì. Questo è un argomento sul quale sono in maniera specifica informato per un semplice fatto. Io ho fatto parte della commissione nazionale del Consiglio Nazionale Dottori Commercialisti sull’intelligenza artificiale. Uno degli ultimi atti che abbiamo fatto, che poi è stato anche pubblicato, è stato quello di aggiungere, all’interno di un documento con la bozza di mandato per i dottori commercialisti, che riguardava proprio l’impatto dell’intelligenza artificiale; perché il mandato professionale, per come era formulato in precedenza, ovviamente non prevedeva questa casistica.
Io non ero d’accordo su alcuni aspetti specifici, perché in questa appendice al mandato professionale, parlando proprio di deontologia, si precisa che i commercialisti devono informare il cliente sull’utilizzo dei sistemi intelligenza artificiale e indicare quali sono (che già è un problema). Ma la cosa che secondo me strideva di più con quella che può essere oggi questa tecnologia e l’applicazione degli studi professionali, era l’indicazione della possibilità per il cliente di inibire all’interno dello studio, al professionista, l’utilizzo di strumenti di intelligenza artificiale. L’obiettivo qual era? Cercare di cogliere questa esigenza da parte del cliente, del cittadino, di non avere delle informazioni sensibili su un sistema di intelligenza artificiale; ma secondo me è stato fatto un po’ un pastrocchio. Immaginiamo noi, quando parliamo di intelligenza artificiale pensiamo più delle volte a chat GPT; quindi pensare di “mettere dentro” chat GPT queste informazioni che poi non si sa dove e come verranno utilizzate. Era un pericolo, e per scongiurarlo alla fine si è voluta inserire questa norma. Quindi a volte c’è una considerazione sulla deontologia professionale, in questo caso secondo me eccessiva, perché non posso farmi dire dal cliente come devo gestire il mandato professionale. Però è vero anche che, ovviamente, starò attento sulla sensibilità dei dati, sulla riservatezza, sul rispetto della privacy e sulla mitigazione del rischio di inserire delle informazioni sensibili su strumenti che poi potranno vedere l’utilizzo di queste informazioni in una maniera che non conosciamo. È una questione però facilmente superabile perché, molto semplicemente, è una cosa che noi facciamo normalmente. Le informazioni sensibili basta tenerle su un server interno che rispetta quelle che sono le condizioni minime di privacy previste anche dalla legge, invece di infilarle dentro chat GPT, e utilizzare poi dei sistemi intelligenza artificiale. Quindi solo il motore di fatto, per poi lavorare quei dati su dei server nostri, o comunque dei server che rispettano delle regole.
Anche questo tipo di applicazione che, detta così, sembra abbastanza semplice, ma poi alla fine potrebbe essere complessa, necessita, a mio avviso, sempre di due aspetti che sono in primis la formazione. È molto importante capire quali sono i pericoli, perché se non lo riesco a capire non lo posso mitigare; quindi se non capisco esattamente come funziona, non posso gestire questa parte del processo e non posso neanche dire “non utilizzo l’intelligenza artificiale per non correre il rischio” perché resterei indietro, sarei tagliato fuori dal mercato. La seconda cosa è l’aggregazione, perché quando si parla di questi sistemi, di questi accorgimenti che prevedono poi magari degli investimenti in tecnologia, c’è anche bisogno che gli studi professionali abbiano delle dimensioni adeguate per poterseli permettere.
Secondo me, i due temi della formazione e dell’aggregazione per i professionisti sono la risposta alla fine a questo utilizzo dell’intelligenza artificiale, e che sia in qualche modo consapevole.
7. Il futuro delle Professioni e la “patente di Essere Umano”
Dott. Gianmaria Vianova (moderatore):
Sempre sul tema della consapevolezza e delle regole, altro grande tema che sta condizionando il dibattito un po’ in tutto il mondo, ma soprattutto pensiamo agli Stati Uniti. Stiamo vivendo l’epoca in cui il Pentagono e Anthropic (cioè coloro che hanno creato Cloud, l’altro modello di linguaggio in ascesa). Il Pentagono già lo utilizzava per scopi militari e ha chiesto ad Anthropic di togliere i “paletti etici” che proibivano l’utilizzo per armi, ad esempio, automatiche. Anthropic non vuole cedere su questo aspetto. Per farvi capire a che livello si sta governando questo sviluppo dell’intelligenza artificiale e quanto c’è anche di etica in questo sviluppo e nell’adozione di queste tecnologie.
E quindi mi rivolgo al professor Manzotti. Questa è una battaglia che si sta sviluppando, si sta consumando ad alti livelli, ma solo una delle tante che stanno determinando quelli che saranno i prossimi anni per tutti noi. Perché dalle scelte che vengono fatte nelle fasi di adozione di una tecnologia poi, bene o male, l’indirizzo viene dato. La domanda è “come possiamo garantire che questi algoritmi, utilizzati nel nostro piccolo, nelle professioni, ma anche ad alti livelli, non vadano a condizionare troppo il rapporto con la dignità della persona, con i nostri principi cardine che erano appunto riservatezza, dignità, e libero arbitrio?”.
Sono veramente discorso sui “massimi sistemi”.
Prof. Riccardo Manzotti:
Assolutamente, questo è pane per un filosofo.
Allora, il punto cruciale è la differenza tra conoscenza e valore. Questo è un punto essenziale.
Vi faccio un esempio. Stamattina, ho parlato a Verona e oggi pomeriggio sono qua. Cosa fa un essere umano da Verona a qua? Chiede all’intelligenza artificiale di dargli il percorso e l’intelligenza artificiale, sulla base di tutto quello che sa, quindi la sua conoscenza, ti dà il percorso ottimo. Quel “percorso ottimo” è ottimo rispetto a un valore. Infatti avrei potuto dire a Google Maps “no, guarda, voglio la strada più ecologica”, oppure quella più corta, quella più economica. Di solito, oggi, noi scegliamo sempre la strada più breve in termini di tempo, perché siamo sempre affannati ad arrivare il prima possibile.
Il punto qual è? Il punto è che non c’è un modo all’interno del sistema della conoscenza per scegliere tra questi valori. Non c’è una funzione di costo che l’intelligenza artificiale possa applicare per scegliere se sia meglio arrivare prima o inquinare di meno. Non esiste.
Questi sono i valori che non fanno parte che non possono fare parte della conoscenza.
La conoscenza li può articolare. La conoscenza è lo strumento che ci permette di realizzarli, ma la conoscenza non ci permette mai di sceglierli perché per definizione i valori etici sono valori incommensurabili, cioè sono valori che non sono oggetto di una misura, non sono, diciamo così, traducibili in un confronto quantitativo. Io non posso dire quanti baci ci sono in una fetta di torta, non c’è, non esiste la possibilità di tradurli in maniera quantificabilmente comparabile.
Nel momento in cui l’intelligenza artificiale entra a far parte del nostro mondo, entra a far parte dei nostri processi decisionali, noi dobbiamo sempre separare tra le decisioni e le scelte. Le scelte coinvolgono un abbracciare o non abbracciare; un valore.
Le decisioni invece avvengono all’interno di una cornice che è definita dai nostri valori etici.
Vi faccio un una citazione che a me convince molto e che secondo me coglie in un attimo questa differenza tra scelte e valori, e decisioni e funzioni dall’altra. È quello che diceva Hannah Arendt a proposito del Terzo Reich; diceva “era un regime in cui si decideva tantissimo e non si sceglieva mai”. L’intelligenza artificiale da questo punto di vista, come vi dicevo, contiene tutta la conoscenza, ma non può contenere i valori, li può soltanto applicare.
Allora, quello che sta succedendo in questi giorni è che nel momento in cui l’intelligenza artificiale diventa anche un elemento di potere, perché è in grado di fare una differenza strategica e, tra parentesi, questo è uno dei motivi per cui gli Stati Uniti hanno di fatto bypassato molte regole ontologiche nelle prime fasi, e anche in queste fasi nell’applicazione di strumenti, l’utilizzo di dati riservati, l’utilizzo del copyright. Per quale motivo? Perché c’era una priorità strategica e c’è tutt’ora una priorità strategica. Mentre in Europa noi siamo stati più attenti all’applicazione delle regole. Ma quanti di voi usano Mistral, l’LLM francese? Nessuno. Perché quando i francesi hanno provato a fare un LLM si sono scontrati contro questo insieme di regole e di diritti e di principi, per cui non potevano usare i dati dei tedeschi, non potevano usare i dati degli inglesi, non potevano usare i dati degli italiani; e non puoi fare questo, non puoi fare quello. Di là chat GPT e Open AI si sono trovati le praterie aperte perché l’obiettivo strategico degli Stati Uniti era quello di arrivare prima dei cinesi.
E quindi da questo punto di vista noi ci dobbiamo rendere conto che l’applicazione dei valori, delle regole, non è neutra rispetto a criteri di carattere strategico. I criteri di carattere strategico sono la manifestazione, uso un termine filosofico, ma ve lo traduco subito nella pratica, della potenza. Voi dite, “Ma la potenza l’ultima volta che l’abbiamo sentite quando abbiamo studiato Spinoza?”. Sì, ma noi la usiamo tutti i giorni il termine potenza quando parliamo di “superpotenze”. Le superpotenze sono semplicemente la manifestazione della potenza delle comunità al di fuori di quei contesti di diritto nazionale, dentro i quali un determinato ordinamento giuridico impone il fatto di seguire determinate regole. Quindi l’intelligenza artificiale diventa a sua volta una potenza, diventa un elemento che modifica quello che chiamo il paesaggio delle possibilità, e cambiando il paesaggio delle possibilità diventa cambia il contesto nel quale noi esercitiamo di fatto, e non di diritto, la potenza dei vari agenti in gioco. Quindi da questo punto di vista, ancora una volta ritorno al punto di partenza, l’intelligenza artificiale ci pone chirurgicamente di fronte alla differenza tra regola, conoscenza e linguaggio da una parte e anche diritto. Mi permetto di dire perché a volte il diritto è la giustificazione a posteriori di un rapporto di potenza intercorso o di potere intercorso e dall’altra parte l’esercizio del valore, della potenza degli agenti coinvolti.
Dott. Gianmaria Vianova (moderatore):
Avendo affrontato il tema dell’etica a grandi livelli, lo sviluppo di queste tecnologie dipende anche da come avviene l’adozione nella nostra vita quotidiana, perché poi la diffusione è quello che la prassi, anche, va a condizionare quello che è il nostro rapporto con l’intelligenza artificiale.
Volevo quindi tornare dalla dottoressa Mariani. Abbiamo parlato di etica e di utilizzo dell’intelligenza artificiale nella professione. Qual è il confine che ci poniamo nell’utilizzare queste tecnologie, che possono essere sia correttori di bozze, sia input da cui partire per fare un nostro lavoro e dov’è che poniamo il confine? E le chiedo soprattutto se questo confine si sta spostando di settimana in settimana con l’avanzare di questa tecnologia oppure no?
Dott.ssa Rebecca Mariani:
Allora, come in tutte le cose, anche per l’intelligenza artificiale, a mio avviso, il discrimine deve essere dato dall’utilizzo che se ne fa. Quindi, nel mio, penso che il discrimine, come ho già detto in precedenza e come è già stato citato, deve essere quello del controllo, pur sapendo che anche noi sbagliamo. Ma io mi fido più di me, che della macchina; probabilmente un domani mi fiderò più della macchina, ma al momento mi fido più di me.
Quindi per me il discrimine e il confine deve essere dato dal controllo, dalla revisione, dalla rielaborazione, se necessario, di quello che viene fatto dall’intelligenza artificiale.
Io ho scritto due tesi magistrali, una nel 2023 e una nel 2024, una in giurisprudenza e una in economia. Per nessuna delle due ho utilizzato l’intelligenza artificiale. Non la reputavo, nonostante ci fosse già all’epoca, uno strumento ancora adeguato. La reputavo ad uno stadio ancora elementare, primordiale per essere utilizzata per uno scopo così. Forse sbagliando, forse ho perso un po’ più di tempo, forse, ma ancora non mi non ritenevo neanche me stessa pronta per poter utilizzarla e per eventualmente poter controllare quello che dall’intelligenza artificiale poteva scaturire.
Ad oggi, nella mia attività di dottoranda, mi trovo spesso ad utilizzare l’intelligenza artificiale più per necessità di rielaborare un concept, un po’ come accennato prima dal professor Mondini. Ho necessità di rielaborare un concetto, invece di prendere un dizionario dei sinonimi e contrari, invece di riproporre l’espressione su Google e vedere quello che la rete mi proponeva come alternativa a sinonimo. Parlo di sinonimi e contrari, ma insomma mi comprendete in cosa intendo: inserisco un prompt, dove indico anche il senso che voglio dare a quell’espressione che voglio riformulare, e mi indica n modalità diverse con cui posso ristrutturare la frase. Va controllata, va verificata, non mi stancherò mai di dirlo e soprattutto, a mio avviso, non bisogna fare l’errore di controllare l’intelligenza artificiale con intelligenza artificiale.
Non so se vi è mai capitato di inserire un prompt, fare una domanda all’intelligenza artificiale, vedere che la risposta che vi ha fornito è sbagliata o va comunque in una direzione sbagliata, indicarlo. Quindi, “guarda, è sbagliato quello che stai dicendo”. Cosa vi risponde? 100% “hai ragione tu, ho sbagliato io”. Non vi risponderà mai “No, ho ragione io”. Perché questo? Perché l’intelligenza artificiale esegue, è un perfetto esecutore e non fa altro che eseguire quello che è il comando che gli viene dato. Quindi controllo, e non controllo tramite l’intelligenza artificiale, almeno fino a questo momento, fino ad oggi. Io non me la sento. Io mi sento di dover farlo a modo mio.
Quindi come la utilizzo? Principalmente la utilizzo come starter. È una banca dati estremamente grande di, appunto, come dicevo prima, espressioni, modalità, intuiti. La utilizzo molto come starter, come controllore. La utilizzo unicamente se posso fornire all’intelligenza artificiale un modello che so che è scorretto; o, mi spiego meglio, inserisco dentro la banca dati un modello di quello che devo fare che so che è corretto, chiedo di controllare in base al modello che io ho inserito. Quindi in qualche modo c’è sempre il mio zampino nel controllo, no? Perché a mio avviso il controllo ad oggi deve essere dato dall’umano e l’ultima parola deve essere data dall’umano.
Dott. Gianmaria Vianova (moderatore):
Grazie. Quindi stiamo parlando un po’ del come adottare questa tecnologia in maniera virtuosa.
Sappiamo che l’introduzione di questa tecnologia così dirompente sta portando grandi cambiamenti anche all’interno del mercato del lavoro. Gli Stati Uniti sono sempre un po’ la sentinella di quello che poi arriva in Europa. Sappiamo dalle prime rilevazioni che all’ingresso nel mercato del lavoro, i ruoli junior vengono sempre più spesso sostituiti dall’intelligenza artificiale, perché in grado di fare compiti ritenuti solitamente ripetitivi o comunque “di ingresso”, nel mondo del lavoro.
Mi rivolgo in questo senso al dottor Emmi. Un giovane che entra nello studio oggi, rischia di trovare alcuni compiti che prima gli erano riservati per imparare le armi basilari del mestiere, già delegati all’intelligenza artificiale. Lei già parlava, nei suoi interventi in passato, di crisi della vocazione, che è già esistente. C’è il rischio che questo amplifichi un fenomeno che era già presente, sotto traccia, e come si costruisce un commercialista completo di fronte a questa evoluzione che stiamo vivendo?
Dott. Giovanni Emmi:
Sì, la domanda è molto interessante, molto attuale.
A mio avviso c’è un aspetto fondamentale. La crisi della vocazione già esiste nella nostra professione da tempo, ma questo è un fatto che si ripercuoterà necessariamente negli anni a venire, perché i commercialisti si ridurranno di numero. Questo è, praticamente per me, certo; è ovvio per tutta una serie di motivi.
Non dipende dall’intelligenza artificiale, già stava accadendo prima. Con l’intelligenza artificiale questo fenomeno sarà ulteriormente accelerato. Questo è il passaggio.
Quindi ci saranno meno iscritti e la pratica professionale si andrà a ridurre.
Il problema di quello che fanno i praticanti professionali oggi si pone. Quello che lei dice è la pura esatta verità. Perché oggi io a un praticante professionale non saprei di preciso cosa far fare. Perché noi stiamo, tanto per dare l’idea, iniziando a testare un programma di contabilità che facciamo noi (perché oggi l’intelligenza artificiale ci permette anche di programmare) e nel quale quasi tutte le attività manuali ripetitive saranno in qualche modo automatizzate; quindi il praticante non mi serve a nulla. Una volta si prendeva il praticante e lui faceva pratica, gli facevamo inserire le fatture, faceva la partita doppia, poi studiava, poi inseriva queste informazioni, gliele correggevo, glielo spiegavo e nel corso degli anni acquisiva quella competenza e quella dimestichezza che vengono dalla ripetizione di alcune attività e dall’apprendimento, dalla crescita, anche anagrafica.
Oggi questo schema non funziona, non può più funzionare. E c’è un altro problema oggi. C’è un problema che è quello del commercialista, più anziano, che dovrebbe insegnare a un praticante come si svolge la professione, che ha degli strumenti completamente diversi. È come se oggi io, che ho più di 50 anni, dovessi insegnare ad utilizzare degli strumenti, una sega per esempio manuale piuttosto che una sega circolare elettrica, a un giovane che non la utilizzerà mai. Non gli interessa a lui capire come funziona la partita doppia, oppure come funziona un mastrino.
Io ho iniziato a lavorare che c’era il giornalmastro, per intenderci. Oggi ovviamente non posso spiegare a un giovane cos’è il giornalmastro; non gliene fregherebbe nulla. E il punto è che però, normalmente, un professionista più grande non ha quelle competenze per istruire o per comprendere alcuni passaggi propri del digitale. È una differente modalità di gestire lo studio che oggi si affaccia nelle nostre attività, grazie anche all’intelligenza artificiale.
Quindi si deve, a mio avviso, cambiare il paradigma. Il professionista più anziano deve ascoltare il professionista più giovane che entra nello studio sulla modalità di gestione, non tanto sull’aspetto dell’esperienza. Sull’aspetto dell’esperienza si deve mettere al servizio, cercando il più possibile di formale, fargli acquisire un’esperienza che necessariamente dovrà acquisire comunque col passare del tempo. E questo è un fenomeno veramente molto, molto complicato e sarà sempre più difficile istruire dei praticanti, avere dei praticanti. Ma purtroppo è un passaggio che deve essere fatto.
Oggi stiamo conoscendo l’intelligenza artificiale e stiamo capendo come passare da un mondo all’altro.
Fra 20 anni un professionista non avrà visto il mondo che c’era prima, conoscerà solo sistemi automatizzati, e non ragionerà più in quel senso. Ma secondo me scomparirà alla fine anche la partita doppia, se la vediamo da un certo punto di vista, come strumento tecnico che serviva una volta per semplificare, per accorciare e per modellizzare in qualche modo un modello di rilevazione di quella che era l’attività gestionale all’interno di un’azienda. Quindi cambierà veramente tutto e il ruolo del commercialista dovrà cambiare anch’esso. Dovrà cambiare sia nel modo di lavorare che nel modo di interfacciarsi a un giovane che viene a fare pratica nello studio rispetto al quale bisogna mettere a disposizione l’esperienza di vita, ma farsi guidare in un processo che è un vero processo di riversamento. E questo è un aspetto fondamentale: farsi guidare nella gestione della modalità e dei processi.
Dott. Gianmaria Vianova (moderatore):
Abbiamo l’occasione di avere qui invece la professionista che si sta affacciando, e quindi vive dall’altra parte dell’adozione di questa tecnologia. Nel rapporto tra le figure, tra praticanti e commercialisti, professionisti esperti, professionisti con già anni e anni di carriera che si trovano a doversi rapportare nello stesso studio, dover organizzare il lavoro. Le chiedo, dal suo punto di vista, quali sono i principi che bisognerebbe adottare per ottimizzare questo rapporto e far sì che l’intelligenza artificiale venga applicata in maniera virtuosa e non sia invece un tema di freno o un interrogativo, nel modo di organizzare uno studio o comunque banalmente le proprie attività.
Dott.ssa Rebecca Mariani:
Chiedo scusa perché probabilmente mentre parlava il dottor Emmi ho fatto un po’ di “facce”, non so come dire; però è bello anche per questo, no? Fare una tavola rotonda, perché ci sono dei punti di vista diversi che si confrontano.
Allora, mi ha fatto un po’ male sentir dire “se venisse oggi un praticante nello studio non saprei proprio cosa fargli fare”. È una verità, lo comprendo, Però fa male.
Si metta un attimo nei nostri panni in questo momento. È una cosa strana, però noi che siamo le nuove generazioni, che quindi per la tecnologia dovremmo essere i più ispirati, vediamo in realtà questo strumento un po’ come un nemico. Perché oggi sono qui anche per rappresentare un po’ la mia generazione e quindi devo dire che c’è della paura, dell’evidente paura, nel fatto che la nostra posizione, noi che ora dobbiamo imparare, dobbiamo apprendere. Io ho già ho già volto il periodo di pratica forense. Non ho fatto la pratica da commercialista, nonostante avessi la doppia laurea, ma ho svolto la pratica forense e onestamente se avessi dovuto iniziare il percorso adesso sarei un po’ preoccupata. Comunque detto questo, ci sono dei settori in cui probabilmente l’utilizzo dell’intelligenza artificiale e questa preoccupazione nell’essere sostituiti è un po’ prematura. Ci sono altri invece dove ci sono delle evidenze chiare.
Leggevo di una sentenza del Tribunale di Roma riguardo ad una posizione di una grafica graphic designer, mi sembra una società di cyber security. Il tribunale si interessava della legittimità o meno del licenziamento per giustificato motivo oggettivo della posizione della ragazza, che non era neanche una posizione junior, era semplicemente una posizione da grafica graphic designer, che era stata soppressa per inutilità della posizione, anche per l’implementazione di strumenti di intelligenza artificiale in sostituzione del suo lavoro. Quindi ci sono effettivamente dei settori in cui l’intelligenza artificiale sta entrando e influenzando effettivamente lavoro dell’umano. Questa sentenza del Tribunale di Roma mi ha fatto un po’ specie perché di per sé il giudizio era corretto. Il giudice ha applicato la legge che ormai è, come dire assodata e consolidata nel tempo. Ha riscontrato la fattispecie astratta nella fattispecie concreta, quindi è giustissimo. Il licenziamento era oggettivamente legittimo perché la società era in una situazione di difficoltà economica e quindi l’utilizzo dell’intelligenza artificiale era uno strumento per efficientare, per ridurre i costi, quindi effettivamente la legge è stata applicata correttamente. Il fatto è che con questa sentenza si è visto proprio l’ingresso dell’intelligenza artificiale anche avvalorata da una pronuncia di una corte, nel lavoro dell’umano.
Beh, detto questo, mi è stato chiesto però come strutturare. Quindi, allora, a mio avviso, fondamentale, ma come ha detto anche il dottor Emmi, la formazione. Siamo giovani ed è indubbio che una mente giovane possa apprendere di queste cose in modo molto più facile rispetto magari a chi ha più esperienza, ma anche più anni davanti, perché siamo nati in questo mondo è perché non conosciamo un mondo senza questo tipo di tecnologie, quindi in qualche modo sfruttateci.
Quindi la mia idea è questa, proporre corsi di formazione, perché comunque, e si ritorna sempre lì, questa tipologia di strumenti vanno controllati e quindi perché no, controllati anche da un soggetto junior.
Poi, sicuramente, le competenze di uno junior di ieri, dovranno essere diverse dalle competenze di uno junior di domani. Quindi dovremo anche noi aggiornarci e sicuramente sviluppare competenze diverse, che magari sono più improntate al controllo, alla revisione, al vedere dove è fallace l’intelligenza artificiale per capire come intervenire noi.
Sicuramente, e questo è in indubbio, ci deve essere un dialogo tra le generazioni, perché onestamente, con una corretta formazione, con un corretto dialogo, con una responsabilità ragionata, secondo me il giovane può fare la differenza in una realtà.
Dott. Gianmaria Vianova (moderatore):
Mi chiede una rapidissima replica, il Dott. Giovanni Emmi.
Dott. Giovanni Emmi:
Sì, sì. Una rapidissima, più che replica, una spiegazione. Perché il concetto “se viene un praticante in studio non saprei cosa fargli fare” lo intendevo esattamente al contrario. Noi abbiamo la società tra professionisti, qua abbiamo un giovane che è venuto in studio che era in Bocconi e ha fatto lo stage da noi, ed è stato lui a dirmi cosa fare. Perché quando parlo di reverse mentoring parlo del fatto che io ho un’esperienza importante da professionista, come tanti professionisti che vedo qua in sala, ma mi devo fare dire da uno più giovane come gestire un processo. Noi l’abbiamo fatto, per una per una cosa molto specifica, che è l’autofattura e lo vedremo nel workshop che a seguire parlerà proprio di questo. Perché abbiamo fatto uno spin-off con un giovane che ha applicato la tecnologia, e le conoscenze che noi avevamo poi in studio, facendo un mix e realizzando poi delle soluzioni. Come nello spirito per il quale è nata AteneoWeb, perché quello che abbiamo fatto per esempio noi oggi, è stato quello che hanno fatto loro venticinque anni fa. Cambiare un po’ alcuni processi mentali, cambiare il paradigma. E in questo caso, secondo me, il cambio di paradigma deve essere visto non solamente da un punto di vista tecnologico. L’intelligenza artificiale nella professione non va solo applicata, va anche interpretata. Interpretata, intendo, nel modo di gestire questo passaggio. E ora mi taccio perché già ho preso ho preso troppo tempo.
Dott. Gianmaria Vianova (moderatore):
Grazie. È stato un lancio anche per la domanda che avrei fatto al professor Mondini, sull’interpretazione.
Sempre per quanto riguarda la formazione di un nuovo professionista che si affaccia alla materia, come si trasmette quello che è anche un po’ l’intuito forense? Quello che va oltre la lettura della legge, l’interpretazione corretta e l’applicazione ottimale di una norma. Come si trasmette questo, che un po’ va oltre lo scritto. È un qualcosa che deriva anche dall’esperienza quotidiana.
Prof. Paolo Flavio Mondini:
Sì, il discorso si ricollega moltissimo a quello che è stato detto ora in un contesto di mi rende da dire neoluddismo.
C’è questa paura che le macchine sostituiscano l’uomo. È vecchia di 200 anni. Credo che neppure in questo passaggio, sicuramente epocale, si verificherà poi effettivamente, o almeno lo credo, forse lo spero.
Qua la combinazione è un po’ più complessa. Certo, sono consapevole che alcuni mestieri potrebbero effettivamente venire meno. Ho dei bambini a cui continuo ad insegnare che è importante studiare l’inglese. Poi dentro di me penso, mah, non lo so, perché oggettivamente il livello di intelligenza artificiale nell’ambito della traduzione francamente è tale, per cui ecco, non vorrei pormi nei panni di un traduttore in questo momento. Perché le traduzioni realizzate dall’intelligenza artificiale sono effettivamente estremamente competitive e so perfettamente che anche grossi studi legali, che avevano internamente più di un traduttore assunto dipendente, questi certamente hanno perso il posto.
Però non credo che, per la verità, al netto di alcune specifiche posizioni, la partita doppia certamente, magari la ricerca giuridica, sarà semplificata, le biblioteche di carta spariranno, ma insomma sono abbastanza manifestazioni di un modo di apparire più che un contenuto. I contenuti rimangono, il contenuto che il professionista può dare rimane a prescindere da quale sia lo strumento attraverso il quale lo elabora o lo comunica.
In fondo credo che per quanto riguarda proprio il mestiere dell’avvocato, al di là della semplificazione che può derivare dai vari strumenti tecnologici che evolvono, il ruolo dell’interprete inteso in senso lato della parola, rimanga il rapporto con il cliente; dubito che verrà sostituito. L’elaborazione della strategia, quantomeno a breve, dubito che sarà sostituita. La consulenza, al di là dell’analisi della norma che magari è semplificata dal fatto che scrivo su Google Gemini “dimmi qual è la sintesi della norma”, va bene, mi verrà semplificata, ma resta l’applicazione concreta che non è così automaticamente riconducibile a un lavoro automatizzato per inferenza, com’è tecnicamente il lavoro che realizza l’intelligenza artificiale.
Molto difficile trasmettere questo tipo di elaborazione, che deriva dall’esperienza concreta, a un giovane. Questo è vero, è molto difficile trasmettendo.
Certo, ci semplifica un po’ la vita perché in realtà, con la crisi della vocazione, forse abbiamo bisogno di meno giovani e questo va anche un po’ nel senso che la crisi della vocazione oggettivamente rende più difficile trovare nuovi giovani disposti a farlo.
Trasmettere le capacità di elaborazione a un giovane ci pone di fronte l’alternativa di due tipologie di insegnamento.
Dal punto di vista dell’insegnamento più tradizionale verrebbe da dire “No! parti con la gavetta tradizionale, non usare la macchina, non usare l’intelligenza artificiale e utilizza il modo di apprendimento che ho imparato io perché poi arriverai al mio medesimo livello”. È un’impostazione abbastanza comprensibile. In fondo l’esame degli avvocati lo facciamo ancora per iscritto, senza l’uso dei codici commentati, mi sembra, e certamente senza banche dati e digitali; cioè esattamente il contrario di quello che avviene nella professione normale tradizionale. È un approccio umano, però mi sembrerebbe un approccio sbagliato.
Quello che in realtà oggi un maestro, o come si vuol dire un dominus, deve adottare nei confronti del giovane l’incentivo a utilizzarla, ma a saperla utilizzare. In realtà non sono così ottimista che i giovani sappiano utilizzarla. Ci saranno eccezioni senz’altro. Nella mia esperienza, tendenzialmente, i ragazzi sono bravissimi nell’utilizzare i social network, sono meno bravi nel fare le ricerche sul web, intesi in senso ricerche professionali, sanno magari porre la domanda a chat GPT, ma poi riuscire a tirar fuori dei contenuti effettivi di ricerca è qualcosa che, diciamo, è più facile che abbia un avvocato di 40 o 50 anni che non un neolaureato.
Quindi in realtà, e concludo con questo, molto difficile oggi fare il dominus e insegnare il mestiere. Senz’altro non adotterei la strategia del vecchio sistema del “un tempo si faceva così, io ho fatto così”. Adotterei invece la strategia sicuramente del “utilizza l’intelligenza artificiale, ma impara a utilizzarla”; che non è esattamente la stessa cosa che fare la ricerca come avevo fatto io 20-30 anni fa. E alla fine dei conti non è molto diverso da quello che dicevo all’inizio: bisogna imparare a utilizzare le banche dati. Il repertorio era difficile, si, ma le banche dati bisogna saperle utilizzare. Impareranno a usare anche i giovani, anche questo nuovo strumento.
Resta però indubitabilmente uno spazio, magari spostato in là, magari diverso, ma uno spazio per l’umano e il professionista umano.
Dott. Gianmaria Vianova (moderatore):
Grazie. Sono a questo punto due i temi che vorrei porre al professor Manzotti, cioè siamo di fronte al tema della fiducia nel risultato che ci fornisce l’intelligenza artificiale. Temiamo che possa contenere allucinazioni. Sappiamo che sono sempre più i contenuti sintetici con cui l’intelligenza artificiale si forma, si istruisce, quindi c’è un rischio che i risultati degradino nel tempo oppure ci saranno meccanismi di protezione a riguardo e l’altro è il timore di essere sostituiti. Lei, anche recentemente, in un intervento pubblicato pochi giorni fa, ha parlato della necessità di una “patente per gli esseri umani”. Le chiedo di spiegarci questo concetto, e come si lega a quello che ci siamo detti qui al tavolo, oggi.
Prof. Riccardo Manzotti:
Certo. Allora, intanto mi ricollego a quello che si è detto prima e mi veniva in mente che un noto istituto di Milano per interpretariato, che aveva ogni anno una media di 200 iscritti, quest’anno ne ha avuti tre. Era un istituto che andava comodamente, quindi questo ci fa capire quanto l’impatto sia evidente. E allo stesso tempo, non posso fare a meno di notare che quest’anno, al primo anno, avrò la prima corte di matricole che avranno fatto tutte le superiori con l’intelligenza artificiale come la conosciamo noi; per cui loro effettivamente non hanno mai conosciuto il percorso di studi senza la possibilità di esternalizzare la loro conoscenza in parte all’intelligenza artificiale.
Ecco, detto questo, noi ci troviamo, come dicevi tu, di fronte ad una macchina che può avere dei limiti cognitivi, ma come dicevamo prima possono averli anche gli esseri umani. Ora, il termine allucinazioni è profondamente sbagliato perché l’allucinazione presuppone la coscienza. Cioè, noi abbiamo un’allucinazione quando facciamo esperienza di qualcosa che non c’è. Esperienza cosciente. Invece queste dell’IA andrebbero chiamate confabulazioni, che è il termine più preciso. Quando noi non sappiamo qualcosa confabuliamo, che è quella cosa che fanno gli studenti quando non hanno letto il libro che noi gli chiediamo. Quindi la confabulazione, in realtà, è un tratto umano, cioè è qualcosa che avvicina la macchina. Anche perché mi permetto di sottolineare che l’intelligenza artificiale, come la conosciamo oggi, non gestisce l’informazione. È una tecnologia generativa. Cioè dentro l’intelligenza artificiale non ci sono le informazioni come ci sono dentro Google, come ci sono dentro una banca dati; ci sono dei parametri che generano su richiesta questa cosa. Tant’è che New York Times ha perso la causa quando ha accusato chat GPT di avere copiato i suoi dati. Sam Altman gli ha dato le chiavi di chat GPT e ha detto “Guarda, se trovi i tuoi articoli dentro chat GPT hai vinto la causa”. Non li hanno trovati. Perché dentro chat GPT non ci sono i dati, non ci sono le informazioni. Esattamente come nel mio cervello. Quando io ripeto, non lo so “né ‘l debito amore, lo qual dovea Penelopè far lieta”, dentro il mio cervello non troverete da nessuna parte una copia del pensiero. Quindi da questo punto di vista l’intelligenza artificiale non è una tecnologia dell’informazione, quella che conosciamo oggi, ma è una tecnologia generativa.
Ovviamente, in parallelo, si stanno affiancando tutta una serie di nuove tecnologie che la rendono sempre più affidabile, così, come nel nostro caso di esseri umani, c’è tutta una serie di accorgimenti che fanno sì che noi possiamo essere più o meno affidabili.
Dato che oggi si è parlato molto dell’intelligenza artificiale come se dovesse continuare per i prossimi 15 anni a essere come l’abbiamo conosciuta negli ultimi 5 anni, mi permetto di dire un paio di cose all’orizzonte che sono uno la GenAI e l’altro l’AGI, l’Artificial General Intelligence. Entrambe sono due nuove frontiere che però stanno arrivando in tempi molto rapidi che cambieranno nuovamente le regole del gioco.
Cioè, molto di quello che si è detto oggi lo si è detto a prescindendo dal fatto che l’intelligenza artificiale è in costante evoluzione e quello che abbiamo detto oggi non è detto che sia, anzi sicuramente non sarà affidabile, non sarà corrispondente alle cose fra un anno, o 2 anni.
Vi faccio notare un’altra cosa. L’intelligenza artificiale è oggi nella versione attuale un risponditore, cioè risponde ma non fa domande. A parte quelle domandine che ci fa alla fine quando chiede “Volete che io aggiunga una versione più ironica, più divertente? Volete che faccia ancora qualcosa?” Va bene così. Ma queste sono cose che sono aggiunte forzosamente sopra il motore di base del sistema, ma di base l’intelligenza artificiale oggi non fa domande, risponde perché, come vi dicevo prima, oggi l’intelligenza artificiale è conoscenza pura.
È conoscenza pura. Allora, qual è la differenza tra l’intelligenza artificiale e arriva la patente di essere umano? Non mi sono dimenticato del secondo punto.
È che noi, come diceva l’Alfieri, “Volli, e volli sempre, e fortissimamente volli”. Cioè noi abbiamo l’intenzione e questa intenzione è anche il motivo per cui noi siamo responsabili. Perché se io faccio male qualcosa voi mi potete punire, il sistema mi può punire. Quindi io per non essere punito ho un incentivo per poter perseguire la correttezza di quello che faccio, la correttezza dei miei risultati, l’efficienza delle mie ricerche.
L’intelligenza artificiale, al momento, non vuole nulla. Sa tutto, ma non vuole nulla. Quindi, beatamente, quando la correggiamo ci risponde “Mi dispiace, mi sono sbagliato, ti dirò una cosa diversa”. Perché tanto non ci rimette mai.
Però questo modello dell’intelligenza artificiale oggi sta per essere soppiantato. Perché tutti stanno lavorando per implementare un’intelligenza artificiale che abbia delle motivazioni, delle intenzioni, che persegua dei fini. E questo cambierà nuovamente le cose.
Allora, anche l’intelligenza artificiale non sarà più solo dalla parte della produzione, non sarà più soltanto dalla parte della risposta, ma sarà anche dalla parte della domanda e quindi eventualmente anche del consumo. Già in America ci sono delle intelligenze artificiali che possono assumere degli esseri umani per compiere delle azioni nel mondo. Bene, in quel momento ecco che l’intelligenza artificiale diventerà a tutti gli effetti un attore all’interno della nostra comunità.
Le regole con cui questo avverrà non le sappiamo ancora. C’è chi si interroga su un’economia ibrida, un’economia dove ci potranno essere degli agenti economici puramente artificiali. Questa domanda in diversi Stati l’hanno già presa in considerazione. Negli Emirati Arabi e in altri stati del mondo hanno già preso in considerazione la possibilità di agenti puramente artificiali. Bene, in quel caso ecco che secondo me sarà importante poter avere una patente di essere umano, cioè sostanzialmente un documento di cittadinanza dell’umanità per distinguere idealmente, non soltanto funzionalmente, un essere umano da un “non essere umano”, un essere cognitivo dotato di coscienza, dotato, appartenente alla nostra specie, da un agente cognitivo dotato di simili capacità intenzionali e semantiche e cognitive, però non umano.
Questo è qualche cosa che oggi ci sembra sempre meno visionario, ci sembra sempre meno azzardato e sempre più una necessità. Perché il confine tra noi e le macchine è sempre più labile.
Dott. Gianmaria Vianova (moderatore):
E allora direi, approfittiamo di questo lancio verso il futuro, di visione, per questo ultimo rapido giro di tavolo. Prima di lasciare spazio alle domande del pubblico, vi chiedo un esercizio molto difficile. Abbiamo commentato i primi 25 anni di AteneoWeb e abbiamo davanti altri 25 anni, i secondi 25 anni di AteneoWeb. Chiedo quindi a ciascuno una riflessione rapida. Una delle prime cose che vi viene in mente a livello di scenari.
Come cambierà, ad esempio, dottor Emmi, la categoria dei commercialisti di fronte a questa rivoluzione che stiamo vivendo?
Dott. Giovanni Emmi:
Sì, mi riallaccio a questa domanda su AteneoWeb che un po’ avevo introdotto precedentemente perché dà il senso. In uno dei primi incontri che abbiamo avuto con Riccardo e con Franco, la cosa che mi ha fatto molto riflettere è stato il termine “validazione”. Validazione che si ricollega anche alla professionalità, si ricollega al professionista, alla necessità che ci sia un essere umano sempre alla fine di tutto. E il professionista continuerà ad esserci perché è quello che alla fine ci deve “mettere la firma”. Allo stato attuale la figura del professionista che mette la firma, che “valida”, ci sarà sempre. E per questo ci sarà sempre anche AteneoWeb, che ha avuto questa funzione nel corso degli anni; pur sposando la tecnologia, ha in ogni caso sempre tenuto fede alla propria missione professionale, in qualche modo, perché è uno strumento che in ogni caso è guidato da professionisti e la differenza la fa, rispetto a qualsiasi altro tipo di strumento, perché c’è una validazione professionale, che è la sua forza.
Quindi la forza del professionista nel futuro sarà questa: quella di saper essere alla fine un validatore capace di controllare questi sistemi, conoscendoli. Importante, ripeto, conoscendoli, perché se non li conosce non può validare quello che c’è alla fine di questo processo.
E quindi mi immagino un professionista nel futuro e AteneoWeb nel futuro, sempre come uno strumento di valutazione a supporto del professionista che a sua volta valida quelli che sono i suoi output professionali che vengono dalle richieste dai clienti. Come è sempre stato nel corso dell’ultimo secolo, quantomeno, e come probabilmente sarà negli anni a venire.
Perché questo aspetto, a mio avviso, non cambierà. Cambieranno le modalità, cambierà il modo di fare pratica, cambierà il modo di lavorare, cambierà la produttività, cambierà, ma alla fine di questo cambiamento c’è sempre un uomo o una donna che firma. Cioè, mette questa firma un professionista, un essere umano che mette la firma a tutto quello che è il lavoro.
Dott. Gianmaria Vianova (moderatore):
Chiedo lo stesso complicatissimo esercizio di doversi lanciare così tanto in avanti nel futuro anche al professor Mondini.
Come cambierà anche il suo settore, il suo ambito di studio e di lavoro?
Prof. Paolo Flavio Mondini:
Beh, consentitemi una battuta, sarà ancora più difficile controllare i plagi delle tesi di laurea. È praticamente già impossibile. Ho ricevuto una tesi di una rapidità incredibile, onestamente fatta anche bene. Ho provato a metterla nei controlli antiplagio e mi dice che non c’è nessun plagio, perché lavora secondo i vecchi criteri. Ho provato a metterla nei controlli antiplagio di chat GPT, e mi dice che effettivamente ci sono un po’ di parafrasi, ma non è in grado di dirmi di più. Vero che oggi ho letto in un articolo che, mettendo la Costituzione italiana negli stessi sistemi di controllo, pare che abbia dato una risposta che il 97% della Costituzione italiana è oggetto di plagio. Quindi l’affidabilità dello strumento non è particolarmente efficace.
Ora, al di là della battuta, scusate, visto che è passato un po’ di tempo e magari era qualche considerazione lieve era anche utile, due considerazioni di mercato, secondo me, potrebbe essere utile farle.
La prima è che ognuno di voi e di noi deve pensare, per quanto possibile, al fatto che su quelle nicchie di mercato, dove c’era una conoscenza molto specifica dettata dal fatto di avere dei modelli piuttosto che delle prassi consolidate e che rappresentano magari una fonte di sicurezza, occorre riflettere: continuerà ad esserlo oppure no? E quindi concentrarsi su quelli che sono i maggiori valori aggiunti che, dalle macchine ma semplicemente dalla diffusione di conoscenze che questo strumento può consentire e può naturalmente cambiare le carte in tavola.
La seconda considerazione di mercato che vorrei fare è che è indubitabile che questi strumenti, non certo chat CPT, che ha un costo popolare, ma gli strumenti veri di intelligenza artificiale, hanno costi molto elevati. È inevitabile che ciò comporterà una selezione nell’ambito della professione e quindi forme di aggregazione saranno necessarie. La selezione sarà tra coloro che avranno gli strumenti avanzati e quindi consentono di fare attività particolarmente evolute con tempi e costi estremamente contenuti e altre invece che dovranno accontentarsi della LLM generalista, o qualcosa del simile. E quindi il rischio che ci sia un’ulteriore forma di selezione direi è più che più che probabile.
Ecco, mi fermo soltanto considerazioni non di massimi sistemi che lascio al filosofo.
Dott. Gianmaria Vianova (moderatore):
Grazie.
Prof. Riccardo Manzotti:
Allora, mi viene in mente una gag di parecchi anni fa di Ugo Tognazzi e Raimondo Vianello. Vedi, ho subito abbassato le aspettative. “Il troncio della Val Clavicola” dove Tognazzi faceva la parte di un contadino stralunato, che poi si scopriva di essere un paziente di un istituto per malati di mente, che impiegava un intero anno per fare uno stuzzicadenti a mano. E gli chiedevano “Ma questo stuzzicadenti è meglio di quelli prodotti con le macchine con l’automazione?”. Dico “è uguale, però lo faccio io a mano”. Allora, questo per dire che nel momento in cui una mansione, una traduzione, una relazione, viene svolta da una macchina, il valore di quella mansione va a zero. Dato di fatto.
C’è un termine che a me colpisce molto, che si sente poco, è cognitariato. Un filosofo bolognese ha detto che prima c’era il proletariato, la cui forza era da dalla prole, perché uno produce altre persone che hanno le braccia, ma poi il proletariato è stato eliminato dall’automazione meccanica ed è stato sostituito dal cognitariato. Il cognitariato è lo stato delle persone che hanno un’attività cognitiva; e loro vendono la loro attività cognitiva.
Ecco, il cognitariato, secondo me, è giunto alla fine del suo ciclo storico, esattamente come il proletariato.
E l’intelligenza artificiale scopre le carte, cioè tante attività che noi pensavamo avessero un valore aggiunto, in realtà non avevano alcun valore aggiunto, erano puro cognitariato, erano gli ingranaggi su cui si appoggiava il meccanismo del terziario, dei servizi e tutta una serie di mansioni che di fatto non aggiungevano, se non facendo andare avanti il meccanismo.
Il cognitariato, rassegniamoci è finito. E a questo punto la domanda che ci dobbiamo fare è che cosa c’è? C’è qualche cos’altro dopo? E la risposta è sì, ma è il più difficile, cioè è dato da tutte quelle attività intellettuali che aggiungono un elemento, un valore aggiunto, un elemento di discontinuità, cioè che hanno un elemento creativo.
Questa può sembrare una sfida molto grossa, ma vi dico l’ultima cosa.
Provate a fare, notate questa cosa, che l’intelligenza artificiale si chiama intelligenza artificiale generativa, non creativa, e genera del contenuto che anche etimologicamente ci dà l’idea che stia contenuto, come il continente. Sono le cose che stanno tutte lì dentro, un sistema di conoscenze che si conoscono già. Invece i lavori a valore aggiunto sono quelli che rischiano, perché sono quelli che sono incontinenti o incontenibili, giocando un po’ con le parole e sempre con le metafore. Chi è che è uscito dal continente, che per me è la metafora della persona che rompe? Colombo! Lui è andato, è uscito dal continente, cioè lui ha saputo aggiungere qualche cosa di radicalmente nuovo.
Allora, io capisco che questa è una sfida che può sembrare improba, però sul lato, diciamo, di incoraggiamento dico, gli esseri umani in realtà l’hanno sempre fatto. Gli esseri umani, se noi li guardiamo storicamente, hanno sempre aggiunto nuove dimensioni a quello che si conosceva.
E in questo consiste il vero valore aggiunto degli esseri umani: essere creativi e non soltanto generativi.
“Creato ma non generato”, mi permetterei di dire, ribaltando il celebre credo costantinopolitano.
Dott. Gianmaria Vianova (moderatore):
Concludiamo il giro di tavolo con la dottoressa.
Dott.ssa Rebecca Mariani:
Allora, non posso dire come cambierà la mia azione perché ancora non ci sono dentro. Però magari quello di cui potrei dirvi, dato che a questo punto la mia figura nel tavolo è quella un po’ più controcorrente, potrei dirvi quello che secondo me non potrà mai essere sostituito e quindi un rapporto umano, un rapporto coscienzioso, perché non vedo neanch’io così tanto oltre. Non riesco al momento, quindi se un domani l’intelligenza artificiale sarà capace di avere una coscienza funzionale, parificabile a quella umana, alzerò le mani.
Però penso che al momento l’ambito soggettivo e quello che ci fa dire di avere una coscienza è inseparabile dal soggetto, dalle esperienze che il soggetto ha avuto, dall’educazione che il soggetto ha avuto e quindi un domani anche in una professione il rapporto umano, il rapporto tra due coscienze, che siano tali, secondo me sarà insostituibile. Penso un po’ a quello che era stato proposto con i giudici robot, quindi l’idea di affidare il giudizio ad un robot, che magari sia governato dall’intelligenza artificiale. Come fa un’intelligenza artificiale a decidere se non comprende effettivamente ciò da cui si deve estraniare? Perché una giustizia in quanto tale vuole un giudice terzo e imparziale, ma se il giudice non sa da cosa si deve estraniare, come fa a giudicare.
Quindi penso che la coscienza e il rapporto tra coscienze sia quello che sarà insostituibile. Poi chissà …
8. Sessione domande e disposte (Q&A)
Dott. Gianmaria Vianova (moderatore):
Grazie. Allora, intanto chiamerei un applauso per il nostro tavolo.
Come anticipato c’è lo spazio per le domande. Ok, andiamo subito in prima fila.
Pubblico 1:
Buonasera a tutti. Io parlerò con Rebecca soprattutto, con tutti, ma con Rebecca soprattutto. Perché per me oggi, a mio avviso, abbiamo parlato poco di due criteri molto importanti, i quali però fanno diventare professionisti. Intanto c’è la creatività, la fiducia e l’empatia sono tre cose nelle quali rimaniamo esseri umani insuperabili e questo non l’intelligenza artificiale ci ha fatto vincere i mandati perché noi se chiediamo ai commercialisti, ai dominus, ai miei dominus che hanno fatto 40 o 50 anni di esperienza, la domanda è molto semplice: “come avete fatto ad avere questo cliente? come avete creato la vostra reputazione sul mercato? come avete avuto quel passaparola?”. Io sto parlando anche delle mie esperienze personali. Esiste ancora il concetto di insegnare il mestiere. Esiste e non è la partita doppia, no, assolutamente. È proprio creare, istituire e portare avanti nei decenni, neanche negli anni il rapporto. Questo è anche dal punto di vista deontologico il praticantato, perché in questo il ruolo del dominus è molto delicato. Bisogna cercare proprio quel dominus giusto che ti insegnerà proprio le qualità soft, magari non saranno proprio, diciamo, del futuro così tanto avanzato di 25 anni, però le qualità come la puntualità, come disponibilità, come eh il fatto che ci tieni al cliente anche alle 3 di notte di quella domenica, queste avranno senza sempre valore senza tempo. Grazie.
Dott. Gianmaria Vianova (moderatore):
Io raccoglierei le domande, poi al termine replichiamo magari. Così da fare il punto.
Pubblico 2:
A me è rimasto impresso un esempio che ha fatto il professor Manzotti, cioè il fatto che un cliente aveva un problema e ha cercato, anzi l’ha risolto, con l’intelligenza artificiale. Poi è andato dal professionista e gli ha detto “Mettimi la firma”. Allora io, l’unica cosa che chiedo, in casi del genere, come dovrebbe comportarsi un professionista, dal punto di vista professionale e anche etico, in queste situazioni?
Grazie.
Pubblico 3:
Buonasera a tutti. Gli spunti sono stati molto importanti, ma c’è una questione che ha toccato il professor Mondini che vorrei approfondire un pochino e cioè quando diceva che bisogna organizzarsi e strutturarsi per riuscire a trovare mercato. Io sono un avvocato orgogliosamente di provincia e sento molto, con l’intelligenza artificiale, una, come dire, una lotta impari. Io mi occupo di diritto tributario e diritto penale tributario. Quindi i miei, diciamo, antagonisti, sono Agenzia delle Entrate e Procura, e a volte ho la sensazione di combattere contro una forza più forte della mia. Cioè, per quanto io possa aggregarmi, non so se sono in grado di confrontarmi con le intelligenze artificiali dell’Agenzia delle Entrate o con le intelligenze artificiali della Procura.
Quindi, secondo me, in un futuro potrebbe essere interessante magari introdurre qualcosa che parifichi l’accesso all’intelligenza artificiale, della pubblica amministrazione e delle professioni. Vi ringrazio.
Dott. Gianmaria Vianova (moderatore):
Grazie. Ok, direi di lasciare spazio alle risposta.
Prego. Andiamo con ordine di domanda.
Dott.ssa Rebecca Mariani:
Io solo per ringraziare ovviamente perché è stato un bellissimo intervento e no, ovviamente non sono negativa, per fortuna ho avuto delle bellissime esperienze pur anche confrontandomi già con l’intelligenza artificiale e quindi sono assolutamente sicura che un modo per strutturare il rapporto si troverà e sono d’accordissimo sul fatto che ci saranno dei valori, delle conoscenze che vanno anche al di là della professione strettamente intesa che il dominus, perché noi nel nostro lo chiamiamo dominus, ma mentor, come vorrà essere chiamato, in ogni caso dovrà trasmettere al giovane professionista.
Quindi sì, grazie, grazie dell’intervento.
Prof. Riccardo Manzotti:
Come si deve comportare un professionista? Ovviamente non deve accettare a scatola chiusa il risultato.
Però facciamo un caso medico. Se un paziente viene con la diagnosi corretta e io sono un medico e lui mi dice “sulla base dei miei sintomi io ho questa malattia”, effettivamente ha quella malattia. Io valutandolo con i miei mezzi confermo che ha quella malattia, perché dovrei rifiutare quel risultato?
E la differenza qual è? La differenza è che il professionista si gioca la sua reputazione. Quindi c’è una regola, che noi chiamiamo la regola delle 3 R, che dice che dobbiamo distinguere Risultato, Risposta e Responsabilità.
Nel caso dell’essere umano ci sono tutte e tre, perché l’essere umano, mettendo la firma, mette sé stesso in quella risposta. Nel caso dell’intelligenza artificiale ci sono solo le prime due. Il risultato e la risposta.
La garanzia che da l’essere umano non è a questo punto di carattere cognitivo, ma è di carattere esistenziale. Io ci metto la mano, Muzio Scevola, che questa è, e questa è una garanzia che io ricevo non da un punto di vista cognitivo, ma dal punto di vista della reputazione, della responsabilità, dell’esistenza di quella persona.
Quindi quello che io vado a pagare non è soltanto in termini di competenza, ma anche in termini di messa in gioco di chi mi dà una certa consulenza.
Poi capite, se io sono un ingegnere, faccio i conti, che li faccia a mano, che li faccia con Excel, che li faccia con un CAD, che li faccia con un sistema di intelligenza artificiale, se i conti sono giusti cambia niente. Sempre conti sono.
Aggiungo al volo una cosa rapidissima. In tutte le risposte che noi diamo tendiamo a confondere il giusto con il corretto. Il corretto è quando una risposta può essere data esclusivamente in termini cognitivi, termini di competenza, ma nella vita noi sappiamo che quando, per esempio, dobbiamo dare un giudizio, ci sono degli elementi che non possono essere ridotti esclusivamente ad un processo deduttivo razionale. Questi elementi extra hanno una natura, che io da filosofo la chiamo “esistenziale” ma voi probabilmente usereste altri termini, che riguarda la messa in gioco della persona che fa, che emette quel giudizio.
In passato noi ci siamo cullati nell’illusione che tutto potesse essere ridotto ad un aspetto puramente razionale. L’intelligenza artificiale ci scopre le carte e ci fa toccare con mano che in ogni atto umano ci sono degli aspetti che io non chiamerei soggettivi, perché il soggettivo suggerisce una sorta di arbitrarietà individuale, ma che chiamerei piuttosto esistenziali, intendendo con questo degli aspetti che non possono essere ridotti a puri ragionamenti razionali. Esprit de finesse di Pascal contro esprit de géométrie.
Prof. Paolo Flavio Mondini:
Rapidamente la risposta al collega avvocato che invocava una parità delle armi tra professionista e pubblica amministrazione.
Direi che è un tema che forse anche prescinde dalla specificità dell’intelligenza artificiale. È un tema direi costituzionale e direi di estrema attualità senza volere fare riferimenti, anzi volendo fare dei riferimenti alla stretta attualità.
È ovvio che c’è un tema costituzionale laddove non c’è una parità delle armi nel momento in cui la pubblica amministrazione ha a disposizione, ma in questo caso non tanto intelligenza artificiale, quanto “dati” diversi da quelli a cui ha accesso un professionista. E sono pienamente d’accordo.
Il riferimento a cui facevo cenno prima era più che altro un tema di parità delle armi tra eguali, tra i professionisti, dove invece, questo sì può essere un grave problema.
Aggiungo che, sempre nell’ottica degli spunti anche di preoccupazione, anche quello che costituiva, dal punto di vista tipicamente direi di tutela del mercato un limite territoriale, cioè il limite territoriale nazionale e che costituiva, diciamo, un ostacolo per gli stranieri a entrare nel mercato nazionale, quantomeno per esempio nell’ambito della professione forense, visto che la legge è nazionale fino a prova contraria o almeno per la gran parte nazionale, forse con l’intelligenza artificiale potrebbe in parte venire meno. E credo che certi movimenti recentissimi di grandi firms internazionali che stanno entrando nel mercato italiano, non escludo siano un po’ legate alla circostanza che oggi effettivamente anche un avvocato straniero, almeno in astratto, avvalendosi di un buono strumento di intelligenza artificiale, può dare risposte anche secondo il diritto nazionale italiano, quindi facendo avvenire meno la necessità di rivolgersi a un corrispondente locale. È una sfida.
Secondo me rimarranno tanti aspetti naturalmente collegati ai rapporti umani, ai rapporti locali, però ecco, questo è un altro tema che si collega alla capacità risorse, alle necessità di confrontarsi e di aggregazione.
Dott. Gianmaria Vianova (moderatore):
Grazie mille.
Dott. Riccardo Albanesi (AteneoWeb):
Bene! In conclusione volevo solo ringraziarvi. Mi auguro sia stato per tutti un confronto interessante.
Avevamo pensato che potesse essere l’occasione per fare una riflessione sul futuro, ma volevamo anche dare delle risposte concrete, perché il rischio e di restare immobili di fronte a qualcosa di sconvolgente, che vediamo arrivare, ma che non capiamo e non sappiamo come mettere a terra.
Vi saluto e vi do appuntamento al prossimo “anniversario” di AteneoWeb.