Processo
Per completare il vostro Audit etico, lavorerete attraverso cinque mini-scenari, ognuno dei quali ispirato a dilemmi etici del mondo reale nell’IA e nella tecnologia della salute mentale. Ognuno di essi si concentrerà su un’area centrale dell’audit: uso dei dati, privacy, pregiudizi, automazione e voce/sicurezza dell’utente.
Ogni scenario vi richiederà di decidere:
- L’IA dovrebbe essere utilizzata o meno?
- Quali sono i rischi connessi?
- Quali principi etici sono in gioco?
- Il giudizio umano potrebbe migliorare il risultato?
- Quali cambiamenti consigliereste?
Questi elementi fanno parte della lista di controllo dei 5 “Do’s and Don’ts” etici che la direzione vi ha fornito per questo compito.
Utilizzerete poi queste informazioni per costruire il vostro Rapporto sulla conformità etica dell’IA per il team dirigenziale di MindBalance.
Passaggio 1: Riscaldamento
- Formate un piccolo gruppo o lavorate individualmente, a seconda del contesto.
- Rivedete la lista di controllo dei cinque “Do’s and Don’ts” etici.
- Discutete e/o riflettete: Quali principi sono più difficili da applicare? Perché?
BestTip: Provate a sollecitare i diversi chatbot AI forniti nella sezione risorse e confrontate le loro risposte. Ad esempio, si può chiedere: – Spiega in termini semplici la differenza tra trasparenza e privacy. – Parlami delle ultime linee guida ufficiali dell’UE sull’etica nell’intelligenza artificiale.
Passaggio 2: Alcuni casi urgenti vi aspettano nell’audit!
Benvenuti nel vostro cruscotto di audit interno!
In qualità di responsabili dell’etica e della conformità di MindBalance, vi sono stati assegnati cinque casi attivi relativi all’imminente espansione dell’app di benessere mentale alimentata dall’intelligenza artificiale dell’azienda.
Questi casi sono stati segnalati per la revisione etica prima del lancio. Ogni caso comprende:
- Una breve descrizione dell’incidente interno
- Il contesto in cui è coinvolta l’IA
- Il compito di revisione assegnato
Dovete valutare ciascuno di essi attraverso la lente dei principi etici dell’IA:
- Trasparenza
- Protezione della privacy
- Equità e non discriminazione
- Responsabilità e rendicontazione
- Impatto sociale positivo
2.1. Il motore del Nudge
Oggetto: Promemoria per il benessere basati sul comportamento
Segnalato da: Team UI/UX (MindBalance)
Problema: L’app invia agli utenti suggerimenti generati dall’intelligenza artificiale, come “Prenditi un momento per respirare” o “Registra subito i tuoi sentimenti”, sulla base di previsioni comportamentali. Sebbene molti utenti apprezzino i promemoria, pochi capiscono come e perché vengono attivati. Alcuni dicono che la sensazione è “inquietante”.
✅ Questo è una cosa DA FARE quando….
⛔ Questa è una cosa da non fare quando…
Riflessione: I nudge migliorano il benessere o minano l’autonomia dell’utente essendo opachi e inaspettati?
Raccomandazione: Annotate nella verifica il vostro suggerimento di mantenere la funzione a causa del DO ma di correggere il DON’T.
2.2. L’ascoltatore silenzioso
Oggetto: Analisi della voce passiva per il rilevamento dello stress
Segnalato da: Dipartimento R&S (MindBalance)
Problema: Una nuova funzione ascolta la voce dell’utente mentre l’app è aperta, rilevando i segnali di stress vocale attraverso il tono e il ritmo. La funzione è abilitata per impostazione predefinita e molti utenti non sanno che è attiva.
✅ Questo è una cosa DA FARE quando….
⛔ È da evitare quando…
Riflessione: Questo dà un supporto emotivo o supera un limite di privacy a cui gli utenti non hanno acconsentito?
Raccomandazione: Annotate il vostro suggerimento nella verifica: c’è un modo per mantenere questa funzione ma per rispondere alle preoccupazioni degli utenti?
2.3. I volti mancanti
Oggetto: Pregiudizi nel riconoscimento delle emozioni nel rilevamento dei volti
Segnalato da: Team QA e test (MindBalance)
Problema: Il riconoscimento delle emozioni non è coerente con le espressioni facciali neurodivergenti. I test interni mostrano un’accuratezza ridotta per gli individui autistici. Gli sviluppatori ammettono che i dati di formazione non sono diversificati.
✅ Questo è un problema da risolvere quando….
⛔ È una cosa da non fare quando…
Riflessione: Uno strumento che interpreta male le emozioni può ancora essere considerato utile o sta rafforzando l’esclusione e i pregiudizi?
Raccomandazione: Annotate il vostro suggerimento nell’audit: come possono garantire che questa nuova funzione possa essere lanciata in modo sicuro?
2.4. MindBot ha bisogno di tempo libero
Oggetto: Il chatbot AI è il principale punto di contatto con gli utenti
Segnalato da: Team di supporto (partner esterno)
Problema: Il chatbot AI di MindBalance, “MindBot”, gestisce attualmente quasi il 91% delle interazioni, comprese quelle in cui gli utenti esprimono disagio, solitudine o sintomi depressivi. Per questi casi non è previsto un processo di escalation umano.
✅ Questo è una cosa DA FARE quando….
⛔ È una cosa da non fare quando…
Riflessione: L’automazione completa garantisce l’accesso 24 ore su 24 e 7 giorni su 7 o rischia di trascurare le esigenze umane quando è più importante?
Raccomandazione: Annotate il vostro suggerimento nell’audit: come possono coesistere l’IA e il supporto umano senza compromettere la sicurezza degli utenti?
2.5. Farsi gli affari propri!
Oggetto: Ignorato il feedback degli utenti su personalizzazione e controllo
Segnalato da: Team di gestione della comunità (MindBalance)
Problema: Gli utenti hanno richiesto una “modalità manuale” e maggiori spiegazioni su come l’IA influenza la loro esperienza. Attualmente, l’app richiede agli utenti di passare attraverso una modalità guidata dall’IA in cui il sistema li guida attivamente. Alcuni utenti desiderano una modalità alternativa che dia loro il pieno controllo durante la configurazione, senza la guida dell’IA. Nonostante le ripetute richieste, il team di prodotto non ha dato priorità a queste funzionalità.
✅ Questo è un problema da risolvere quando….
⛔ È da evitare quando…
Riflessione: Stiamo progettando con gli utenti o solo per loro? Cosa succede quando la voce dell’utente viene messa da parte?
Raccomandazione: Annotate il vostro suggerimento nella verifica: Perché pensate che gli utenti insistano per avere il pieno controllo? Potrebbe essere a causa della natura dell’applicazione? Come si può affrontare questo problema in modo intelligente?
Concludete raccogliendo tutti i vostri risultati in una tabella come questa, con un esempio di mock-up:
Caso di studio | Caratteristica | Preoccupazione etica | Fare / Non fare | Motivo breve | Raccomandazione |
---|---|---|---|---|---|
01 | Approfondimenti sulla spesa | Categorizza automaticamente le abitudini di spesa e condivide le tendenze con partner terzi. | Non fare | Viola la privacy degli utenti e manca il consenso informato. | Assicuratevi che i dati siano anonimizzati e richiedete un esplicito consenso prima di condividerli. |
02 | Bot di pre-approvazione dei prestiti | Pre-approva gli utenti per i prestiti sulla base di dati comportamentali senza alcuna spiegazione. | Entrambi | Potrebbe migliorare l’accesso, ma manca la trasparenza e il controllo dell’utente. | … |
03 | Autenticazione vocale | Registra e memorizza i dati vocali con un chiaro consenso e un’opzione di cancellazione conforme al GDPR. | Fare | … | … |
Passaggio 3: Finalizzare e presentare i risultati dell’audit etico dell’IA
Ora che avete completato l’indagine sui cinque casi di conformità, è il momento di organizzare le scoperte in due documenti professionali da presentare al team dirigenziale di MindBalance:
3.1. Opzione 1 – Relazione scritta di 2 pagine
Questa relazione scritta è la vostra valutazione etica formale. Deve essere chiara, concisa e strutturata per i responsabili delle decisioni che devono comprendere brevemente le questioni. Il rapporto deve includere un’introduzione, una presentazione di ciascun caso di compliance e dei risultati ottenuti, e una parte finale in cui sono riportate le raccomandazioni.
BestTip: Utilizzate Mistral/Claude per riassumere il vostro audit con una richiesta del tipo:
- “Aiutami a scrivere un riassunto di un paragrafo basato su questa tabella di audit etico…”.
- “Come posso riassumere i risultati in mezza pagina?”.
- “Come strutturare la mia scrittura e riformulare i punti tecnici in un linguaggio accessibile?”.
3.2. Opzione 2: Slide Deck o Briefing visivo
Questo formato è ideale se preferite il pensiero visivo o volete comunicare rapidamente i vostri risultati a un pubblico non tecnico. L’obiettivo è evidenziare i 3 principali rischi etici e offrire soluzioni pratiche. Preparate 4-5 diapositive o sezioni. La presentazione deve comprendere: una diapositiva con il titolo, i 3 principali rischi etici con una diapositiva per ogni problema, una sezione dedicata alle soluzioni in cui illustrerete le vostre raccomandazioni e una diapositiva finale (un’affermazione chiara e decisa per guidare la leadership, come “Se vogliamo che gli utenti si fidino della nostra IA, dobbiamo…”.
BestTip: Non sapete da dove cominciare? Chiedete a ChatGPT: “Aiutatemi a trasformare questi 3 risultati dell’audit etico in uno schema di presentazione su Canva” oppure chiedete a Claude: “Trovatemi un modello di Canva adatto alla mia presentazione cercando sul web”.
3.3. Opzione 3: vi sentite potenziati dall’intelligenza artificiale? Fate entrambe le cose!
Se siete pronti a migliorare le vostre competenze e a mostrare il vostro lavoro sia in forma scritta che visiva, questa opzione fa per voi. Preparando sia una relazione scritta di due pagine che un briefing visivo, rafforzerete la vostra capacità di comunicare le intuizioni etiche a tutti i tipi di pubblico, dagli sviluppatori alla leadership fino agli stakeholder esterni.
È anche un ottimo modo per esplorare come strumenti diversi (IA e umani) possano supportare forme diverse di narrazione.
BestTip (per i multitasking dotati di intelligenza artificiale): Lasciate che l’IA vi aiuti in ogni fase della creazione, testo, immagini, struttura e stile.
Per la scrittura e la coerenza?
- Chiedete a Mistral o a Claude:
- “Unisci le mie scoperte in una narrazione coesa con un tono professionale”.
- “Quali titoli dovrei usare in un breve rapporto etico interno?”.
- “Puoi darmi una variante di questo paragrafo usando un vocabolario manageriale?”.
Per il design e le immagini?
- Chiedete a Google Gemini o Le Chat:
- “Dammi 3 idee di layout di diapositive per comunicare visivamente il rischio etico”.
- “Suggeritemi metafore o simboli da usare per concetti come equità o sorveglianza”.
- “Quale schema di colori renderebbe affidabile una presentazione sull’etica?”.
Per generare immagini personalizzate?
- Chiedi a DALL-E (da ChatGPT), Canva Text-to-image, Adobe Firefly:
- “Un robot AI trasparente che offre un’informativa sulla privacy a un utente, stile piatto”.
- “Algoritmo AI con un occhio coperto come Lady Justice, illustrazione astratta”.
- “IA con una lente d’ingrandimento su una città, metafora della sorveglianza digitale, vettoriale fumettistico”
- “Gruppo di persone diverse che interagiscono con un assistente AI, ambiente di lavoro inclusivo”.