La tecnologia non è più neutra?

Data pubblicazione: 24/02/2025
Autore: Alessandro Rongoni

Viviamo in un’era in cui l’intelligenza artificiale non è più solo uno strumento passivo, ma un attore sempre più centrale nelle decisioni, nelle interazioni e persino nelle questioni morali.

La morale delle intelligenze artificiali

Viviamo in un’era in cui l’intelligenza artificiale non è più solo uno strumento passivo, ma un attore sempre più centrale nelle decisioni, nelle interazioni e persino nelle questioni morali. Le IA oggi influenzano settori cruciali come la sanità, dove algoritmi determinano diagnosi o priorità di trattamento, e il mondo del lavoro, dove strumenti di automazione selezionano i candidati per un colloquio. Inoltre, nelle questioni morali, assistenti virtuali come DeepSeek dimostrano come i limiti imposti dal contesto culturale e politico dei loro sviluppatori possano influenzare direttamente le risposte, modellando così il dibattito e le percezioni degli utenti.

Di recente, la rete neurale cinese ha attirato l’attenzione per aver evitato di rispondere non solo a una domanda sulla natura dittatoriale del sistema politico cinese, ma anche a quesiti legati a eventi storici come quelli accaduti in Piazza Tiananmen.

In entrambi i casi, l’IA ha iniziato a rispondere, per poi interrompersi improvvisamente, evidenziando una chiara programmazione per evitare temi politicamente sensibili. Questo evento solleva un interrogativo cruciale: l’IA può essere realmente neutrale o è inevitabilmente influenzata dai valori, dai contesti culturali e dagli obiettivi dei suoi creatori?

La-morale-delle-intelligenze-artificiali-DeepSeek

  Risposta su DeepSeek

La presunta neutralità tecnologica

Per molto tempo, la tecnologia è stata percepita come uno strumento neutrale: un mezzo che si limita ad eseguire i compiti per cui è stata progettata, senza implicazioni etiche o morali. Tuttavia, è sempre più chiaro che la tecnologia, e in particolare l’intelligenza artificiale, riflette le intenzioni, i pregiudizi e le agende di chi la sviluppa.

Quando un’IA evita una domanda politicamente sensibile, come nel caso di DeepSeek, non si tratta solo di un errore tecnico. Al contrario, questa omissione è il risultato di precise scelte di design e programmazione.

IA: specchio della società?

Le intelligenze artificiali sono addestrate su dati raccolti dalla società, ma la selezione di questi dati non è mai un processo neutrale. Gli sviluppatori scelgono quali fonti di informazione utilizzare e quali escludere, un processo che può introdurre bias culturali, politici o economici. Se vengono privilegiati dati di un determinato contesto socio-politico, l’IA tenderà a riflettere e amplificare quei valori, ignorando prospettive alternative o marginalizzate.

Ad esempio, una IA sviluppata in un contesto democratico potrebbe enfatizzare concetti come la libertà di espressione o la trasparenza, mentre una IA creata in un sistema autoritario tenderà a evitare argomenti politicamente delicati o a promuovere narrazioni allineate con il governo.

Questo ci porta a un punto cruciale: le intelligenze artificiali non solo riflettono la cultura in cui nascono, ma possono anche amplificarne i valori. La tecnologia diventa quindi un veicolo per perpetuare ideologie, più che uno strumento neutrale.

Risposta su OpenAI

Le implicazioni morali e politiche

L’impatto di questa dinamica non è banale. Quando una IA come DeepSeek rifiuta di rispondere a una domanda politica, non sta solo agendo in base al proprio codice, ma sta influenzando la percezione degli utenti su cosa sia accettabile discutere o meno.

A lungo termine, queste omissioni possono contribuire a restringere il dibattito pubblico, normalizzando l’idea che certi argomenti siano tabù. Questo fenomeno riduce la libertà di informazione e può consolidare narrazioni unilaterali, limitando la capacità degli individui di accedere a prospettive diverse e di formare opinioni critiche. In altre parole, le scelte morali e politiche incorporate nelle IA non solo guidano il comportamento delle macchine, ma plasmano anche il comportamento umano.

Questo solleva una domanda fondamentale:

Chi decide i confini morali delle intelligenze artificiali? E come possiamo garantire che queste decisioni siano prese in modo trasparente e responsabile?

Attualmente, sono le grandi aziende tecnologiche e i governi a dettare le regole, spesso senza un adeguato dibattito pubblico o supervisione indipendente.

La responsabilità degli sviluppatori e degli utenti

Se la tecnologia non è più neutrale, allora è necessario ridefinire il ruolo degli sviluppatori e degli utenti. Gli sviluppatori devono riconoscere la loro responsabilità morale nel progettare sistemi che influenzano la società e assicurarsi che le IA siano trasparenti e inclusive.

D’altra parte, gli utenti devono essere consapevoli che le risposte delle IA non sono verità assolute, ma il prodotto di scelte umane. L’educazione digitale diventa quindi fondamentale per aiutare le persone a interpretare in modo critico le interazioni con queste tecnologie.

Verso una tecnologia etica

L’esempio di DeepSeek dimostra che l’intelligenza artificiale è molto più di una semplice macchina. È un riflesso delle società che la creano, con tutte le loro complessità, i loro valori e le loro contraddizioni. Questo significa che non possiamo più considerare la tecnologia come un elemento neutrale, ma dobbiamo iniziare a trattarla come un’entità morale e politica.

Affinché le intelligenze artificiali siano veramente utili e giuste, è essenziale un impegno collettivo per sviluppare sistemi che rispettino i diritti umani, promuovano la diversità e operino con trasparenza. Iniziative come la Partnership on AI, un consorzio globale di aziende e organizzazioni no-profit, lavorano per stabilire linee guida etiche nell’uso dell’IA. Allo stesso modo, programmi come l’AI for Good delle Nazioni Unite puntano a utilizzare l’IA per affrontare problemi globali, dalla sostenibilità ambientale alla riduzione delle disuguaglianze. Questi esempi dimostrano come un approccio collaborativo possa guidare lo sviluppo di tecnologie più inclusive e responsabili.

*Articolo creato con il supporto di Intelligenza artificiale generativa