Diritti umani e intelligenza artificiale, tutele e rischi

Un simposio contemporaneo, con l’obiettivo di fare chiarezza su un tema complesso e di grande attualità. “Tutela dei Diritti umani nell’era dell’Intelligenza artificiale” è stato l’argomento affrontato presso la Fondazione Casa dello Scugnizzo onlus, in un appuntamento moderato dalla giornalista e giurista Bianca Desideri, direttore del Centro Studi e Ricerche “Mario Borrelli” e portavoce del Governatore del Distretto 108 Ya Lions International e realizzato in collaborazione con il Distretto 108 Ya Lions International, la Circoscrizione 1 del Distretto 108 Ya, il Lions Club Napoli Europa “Gianpaolo Cajati”, il Lions Club Nola Host “Giordano Bruno” e l’Associazione Culturale “Napoli è”.

La data dell’evento, lo scorso 17 dicembre, ha assunto un valore simbolico particolarmente significativo, cadendo a pochi giorni dalla ricorrenza del 10 dicembre 1948, quando venne proclamata la Dichiarazione universale dei diritti umani. In quell’occasione, i rappresentanti delle nazioni riuniti nell’Assemblea Generale delle Nazioni Unite, guidati dalla presidente della Commissione per i Diritti Umani Eleanor Roosevelt, scelsero con grande senso di responsabilità di illuminare l’Occidente e il mondo intero con valori intramontabili, profondamente radicati nella natura umana, come la libertà, la democrazia, l’uguaglianza e la fratellanza.

Da quel momento storico, l’umanità ha compiuto enormi passi avanti nel progresso scientifico e tecnologico. Tuttavia, non sempre la bussola della scienza ha puntato con decisione verso la tutela dei diritti umani, soprattutto negli ultimi anni, in cui l’intelligenza artificiale, tecnologia capace di simulare alcune capacità umane, è entrata in modo sempre più pervasivo nelle nostre vite quotidiane.

Ha aperto i lavori il Presidente della Fondazione Casa dello Scugnizzo onlus Giuseppe Desideri.

Hanno partecipato: Pino Naim, Governatore del Distretto 108 Ya Lions International; Roberto Ivan Forlenza, Presidente Circoscrizione 1 Distretto 108 Ya Lions Club International; Enzo Capone, Presidente Lions Club Napoli Europa “Gianpaolo Cajati”; Giovanna Sepe, Presidente Lions Club Nola Host “Giordano Bruno”, i Consiglieri Immacolata Raiano e Francesco Polio della Municipalità 2 del Comune di Napoli, la consigliera dell’Associazione Culturale “Napoli è” Alessandra Desideri, consulente per i media struttura portavoce del Governatore del Distretto 108 Ya Lions International.

Nel corso dell’incontro, Olga Izzo, Consigliera di parità della Città Metropolitana di Napoli, ha sottolineato come l’intelligenza artificiale, se non adeguatamente governata, possa amplificare le discriminazioni esistenti. Ha quindi evidenziato la necessità di una supervisione umana, della responsabilità e del rispetto dei principi democratici, come condizioni indispensabili per tutelare la dignità e i diritti fondamentali della persona.

A seguire, Emilio Contrasto, Segretario Generale di UNISIN/CONFSAL, ha richiamato l’impegno del sindacato in sede istituzionale, ribadendo l’importanza di stare al passo con i tempi attraverso la formazione e la riqualificazione delle lavoratrici e dei lavoratori.

L’avvocato Anna Salvati, referente del Consiglio dell’Ordine degli Avvocati di Napoli per il Progetto Carità e Giustizia dell’Arcidiocesi di Napoli, ha illustrato al pubblico le principali linee guida giuridiche, insieme alle normative nazionali e sovranazionali, pensate per proteggere la persona dai rischi connessi all’uso dell’intelligenza artificiale.

Un richiamo forte alla centralità dell’essere umano è arrivato anche dall’avvocato Sergio Longhi, Segretario della Fondazione dell’Avvocatura Napoletana, il quale, dopo aver portato i saluti del presidente della Fondazione avvocato Alfredo Sorge, ha invitato a non perdere di vista il senso ultimo dell’innovazione tecnologica: “Non dimentichiamoci delle persone, del servizio alla comunità, dell’umanità. L’intelligenza artificiale deve essere uno strumento che ci aiuta, non qualcosa che sostituisce l’umano.”.

Il sociologo Francesco Grossi ha affidato all’avvocato Longhi il suo intervento sul concetto di “restanza” evidenziando che “la globalizzazione, con la sua spinta all’accentramento e alla mobilità, spinge verso la periferia, mentre la restanza è l’atto di resistere al centro, di rimanere in un luogo, opponendosi allo spopolamento e a un modello economico che esclude chi non si conforma. La restanza: Non è opposizione al progresso, ma resistenza a un modello economico che favorisce le aree centrali e multinazionali a scapito delle autonomie locali e delle sovranità nazionali, minacciando identità e coesione sociale”.

L’avvocato Umberto Aleotti, Vice Coordinatore della Commissione di Diritto dell’Unione Europea Consiglio dell’Ordine degli Avvocati di Napoli, nel suo intervento affidato alla voce della moderatrice ha sottolineato come “le dichiarazioni di principi approvate dall’Assemblea generale dell’O.N.U. non hanno valore giuridicamente vincolante ai sensi del Trattato di San Francisco”. La Dichiarazione universale ha “il valore che normalmente è ricondotto a questi atti dell’Assemblea generale, ovvero, si tratta di un atto di international soft law, di “diritto internazionale morbido”. Essa equivale, quindi, a un invito formulato agli Stati a tutelare il complesso di diritti che vi sono elencati ma, di per sé, non esprime obblighi giuridici di protezione di quei diritti”.

Un intervento sotto duplice veste quello di Andrea Castaldo, Responsabile Distrettuale Global Service Team (G.S.T.) Distretto 108 Ya Lions International e vice presidente della F.M.P.I. Federazione Medie e Piccole Imprese che dal suo doppio punto di ossevazione ha evidenziato che “l’Intelligenza Artificiale non è un rischio da temere, ma un acceleratore di potenziale umano. Proprio perché accelera, però, può amplificare anche disuguaglianze e ingiustizie. Per questo va governata con “principi di giustizia, inclusività e responsabilità”, prima ancora che con entusiasmo tecnologico. Nel mondo delle PMI, l’impatto dell’IA è già concreto. Non parliamo solo di scenari futuri: parliamo di strumenti che entrano nei processi di selezione, nella gestione dei turni, nella valutazione delle performance, nei sistemi di controllo, nelle decisioni operative. E qui i diritti umani diventano diritti “in carne e ossa”, perché toccano direttamente il “diritto a un lavoro equo” , il “diritto alla non discriminazione”, il “diritto alla privacy”, il “diritto a essere valutati con criteri comprensibili e contestabili”.

A chiudere l’incontro è stato Tommaso Di Napoli, immediato Past Governatore del Distretto 108 Ya Lions International, che ha espresso una riflessione di ampio respiro, in piena sintonia con lo spirito della Dichiarazione universale dei diritti umani: “Difendere i diritti umani significa prendersi cura del volto umano della società, soprattutto quando quel volto è fragile, marginalizzato o inascoltato”. Egli ha, inoltre, auspicato che le energie della società civile possano unirsi in uno sforzo comune, orientato a salvaguardare e rinnovare la passione per la vita.

Francesco Pio Esposito

Un nuovo chatbot di Intelligenza Artificiale: una nuova risorsa o un possibile danno?

La società italiana Multiversity da alcune settimane ha lanciato un chatbot di Intelligenza Artificiale, che fornisce agli utenti risposte con un coefficiente di accuratezza al 99%.

Questo servizio è totalmente gratuito, infatti in così poco tempo ha generato già più di 100000 risposte, inoltre lo stile e il contenuto della risposta si adatta alle capacità e competenze di chi fa la domanda, garantendo un’efficienza mai vista prima.

Altri tipi di I.A. spesso forniscono dati superflui e sbagliati, invece, come sostenuto dai dirigenti di Multiversity, questa Intelligenza Artificiale è a misura di studente, adatto alla vita scolastica ed universitaria, una funzione che ha lo scopo di “facilitare” i compiti, ma ovviamente non tutti hanno accolto questa I.A. con lo stesso entusiasmo degli ideatori.

L’istruzione nel nostro Paese, ma anche in gran parte del mondo, sta riscontrando diverse problematiche riguardanti gli studenti, il loro grado di apprendimento e di concentrazione, la scarsa resa nei test e il poco studio che si svolge a casa e uno strumento che alleggerisce così tanto l’impegno e le responsabilità potrebbe risultare dannoso, a maggior ragione dal momento in cui anche gli universitari ne dispongono. Molti critici, pensatori e docenti stessi hanno evidenziato che è anti-educativo e a lungo andare un intenso e ripetuto utilizzo di questa I.A. potrebbe generare ignoranza tra chi ne usufruisce, aumentando così le problematiche della futura classe dirigente del mondo.

Nonostante le critiche, il ceo di Multiversity, Fabio Vaccarono, ha annunciato che entro fine anno il chatbot non sarà solo un programma che risponde alle domande, anzi si evolverà anche in uno strumento di educazione digitale, spiegando e valutando qualsiasi argomento, dal programma elementare a quello universitario, in forma sempre gratuita e passando così da “ strumento di ignoranza ad uno di istruzione e cultura”.

Rocco Angri

Se la fede diventa fonte di scontro, un’intelligenza artificiale potrà prevederlo

Sembra l’incipit di un libro di fantascienza, stile Matrix, invece è esattamente ciò per cui è stato progettato il Modeling Religion in Norway (Modrn).

Lo studio, condotto da un team di programmatori, sociologi e teologi della University of Agder, in Norvegia, applica l’intelligenza artificiale alla realtà permettendo di testare scelte politiche prima di attuarle.

I ricercatori hanno riprodotto un modello verosimile di società  in cui gli individui, chiamati agenti, interagiscono e reagiscono ai cambiamenti.

Modificando alcune variabili, come il livello di educazione, benessere e soprattutto religiosità degli agenti, gli studiosi verificano come i cambiamenti introdotti incidono sulle dinamiche sociali.

L’obiettivo scientifico dichiarato da Le Ron Shults, leader del gruppo dei ricercatori, è quello di capire i meccanismi del conflitto, assieme ad un altro: offrire ai politici uno strumento per capire meglio la religione ed il suo impatto sulla società.

Già nel 2015, a Boston, era stato sviluppato un modello di intelligenza artificiale molto simile a quello norvegese, con lo scopo di studiare il motivo per cui le religioni vengano considerate attrattori così potenti. Tra i risultati della ricerca, indicativo quello per cui lo scontro tra gruppi avviene con più facilità se il rapporto tra maggioranza e minoranza è inferiore a 70/30.

Rispetto al progetto di Boston, è stata cambiato l’approccio allo studio della religione; il gruppo norvegese, infatti, oggi sta lavorando  ad una piattaforma che possa essere utilizzata da chiunque.

I più scettici sono preoccupati per la pericolosità di uno strumento del genere, qualora dovesse rispondere alla morale di chi lo adotta, in fondo il modello fornisce una previsione utile a scegliere la strategia più funzionale da utilizzare, perché l’intelligenza artificiale non possiede alcuna sensibilità, ma chi la usa si.

Rossella Marchese

seers cmp badge