Un lungo rapporto sull'intelligenza artificiale: 15.000 parole per dirti dove risiedono i problemi dell'intelligenza artificiale

Un lungo rapporto sull'intelligenza artificiale: 15.000 parole per dirti dove risiedono i problemi dell'intelligenza artificiale

Prefazione

L'intelligenza artificiale (IA) è un insieme di tecnologie, tra cui l'apprendimento automatico, il ragionamento, la percezione e l'elaborazione del linguaggio naturale. Il concetto e l'applicazione dell'intelligenza artificiale hanno avuto inizio 65 anni fa, ma i recenti progressi e le applicazioni dell'IA hanno reso questa tecnologia nuovamente un argomento di attualità. Con la crescente applicazione dell'intelligenza artificiale a tutti gli aspetti della vita sociale ed economica umana, emergono nuove opportunità e sfide. Il suo enorme potenziale impatto obbliga gli esseri umani a riflettere attentamente sullo sviluppo e l'applicazione della tecnologia dell'intelligenza artificiale.

Il workshop “AI Now” tenutosi a luglio di quest’anno è stato l’ultimo di una serie di studi promossi congiuntamente dall’Ufficio per la politica scientifica e tecnologica della Casa Bianca e dal Consiglio economico nazionale. Una serie di studi precedenti ha analizzato e studiato l'intelligenza artificiale da diverse prospettive, che spaziano dalle politiche e normative al controllo della sicurezza dell'intelligenza artificiale, al benessere pubblico dell'intelligenza artificiale e a come sfruttare il potenziale dell'intelligenza artificiale. Questa volta, "AI Now" discute principalmente dell'impatto dell'intelligenza artificiale in ambito sociale ed economico nel prossimo decennio. Esperti e studiosi provenienti da vari campi da tutto il mondo si sono riuniti per esprimere le loro opinioni. Tra le domande affrontate ci sono: quali problemi sono stati causati dal rapido sviluppo dell'intelligenza artificiale in questa fase? Come possiamo comprendere meglio e utilizzare l'intelligenza artificiale per creare un futuro più equo e giusto?

I problemi sociali ed economici sono innumerevoli. In questo "AI Now" si affrontano principalmente i principi di "assistenza medica", "occupazione", "equità dell'IA" ed "etica dell'IA".

Il motivo per cui sono stati scelti come argomenti principali "assistenza medica" e "occupazione" è che l'intelligenza artificiale è ampiamente penetrata in questi due campi e i problemi che l'intelligenza artificiale può causare sono più evidenti e rilevanti in questi due campi. "L'equità dell'IA" e "l'etica dell'IA" sono questioni che in futuro interesseranno tutti: l'IA contribuirà alla pace nel mondo o aggraverà l'ingiustizia sociale? E come possiamo garantire che i benefici dell'intelligenza artificiale siano condivisi da tutta l'umanità?

L'obiettivo del seminario è quello di consentire all'intelligenza artificiale di apportare maggiori benefici alla società umana. Riunendo numerosi esperti e studiosi per dibattiti, il seminario "AI Now" ha una notevole rilevanza sia all'interno che all'esterno della comunità dell'intelligenza artificiale.

Domande e suggerimenti

Nel seminario sono state previste le possibili situazioni che l'intelligenza artificiale potrebbe causare in futuro e sono stati forniti suggerimenti in merito. È opportuno precisare che i seguenti suggerimenti sono frutto della saggezza di tutti i partecipanti e non rappresentano la posizione di alcun individuo o organizzazione.

Poiché l'intelligenza artificiale viene sempre più applicata a tutti gli aspetti della vita sociale ed economica, le seguenti domande e i relativi suggerimenti possono fungere da guida di riferimento per investitori e professionisti in settori correlati.

1. Problema: lo sviluppo e l'applicazione dell'intelligenza artificiale dipendono da infrastrutture specifiche e da risorse umane e materiali. La carenza di queste risorse di base limiterà senza dubbio lo sviluppo dell'intelligenza artificiale e la padronanza di queste infrastrutture e risorse diventa cruciale nelle prime fasi di sviluppo dell'intelligenza artificiale.

Raccomandazione: migliorare la base di risorse per lo sviluppo dell'intelligenza artificiale da più canali. Concentrarsi sulla costruzione di campi di supporto quali set di dati, computer e formazione e addestramento di talenti correlati.

2. Domanda: Sebbene l'attuale livello di intelligenza artificiale sia ancora nelle sue fasi iniziali, l'intelligenza artificiale esiste già come assistente artificiale in molti campi e ha avuto un impatto sui rapporti di lavoro. Jason Furman, presidente del Consiglio dei consulenti economici di Obama, ha affermato che il lavoro manuale poco qualificato è quello che con maggiori probabilità verrà sostituito dall'intelligenza artificiale e dai macchinari automatizzati. Se i robot cominciano a competere con gli esseri umani per i posti di lavoro, cambierà anche l'allocazione delle risorse umane.

Raccomandazione: aggiorna il tuo modo di pensare e le tue competenze per affrontare i cambiamenti nella struttura occupazionale introdotti dall'introduzione dell'intelligenza artificiale. In futuro, le macchine dotate di intelligenza artificiale sostituiranno la stragrande maggioranza dei lavori poco qualificati e le persone dovranno adattare le proprie riserve di competenze e l'orientamento di entrate e spese per far fronte alla nuova situazione.

3. Problema: i processi di intelligenza artificiale e automazione solitamente avvengono dietro le quinte, lontano dalla vista. Senza l'intervento umano, le macchine potrebbero prendere decisioni ingiuste o inappropriate. Con la continua crescita delle applicazioni dell'intelligenza artificiale, il giudizio e la correzione dell'intelligenza artificiale diventeranno sempre più importanti e difficili.

Raccomandazione: si dovrebbe anche sostenere la ricerca sulla calibrazione e gli errori dell'IA, e mettere all'ordine del giorno le procedure di valutazione dei rischi di errore dell'IA. Questi studi dovrebbero svilupparsi di pari passo con il rapido progresso dell'intelligenza artificiale, proprio come la giustizia lo è per l'amministrazione nel sistema umano. In questo modo, gli errori commessi dall'intelligenza artificiale possono essere scoperti in tempo ed evitare gravi conseguenze.

4. Problema: la ricerca sull'equità e la responsabilità delle istituzioni pubbliche e private nel modello di intelligenza artificiale sembra essere in conflitto con alcune attuali leggi statunitensi, come il Computer Fraud and Abuse Act (CFAA) e il Digital Millennium Copyright Act (DMCA).

Raccomandazione: per essere chiari, né il Computer Fraud and Abuse Act né il Digital Millennium Copyright Act limitano la ricerca.

5. Domanda: Sebbene l'intelligenza artificiale venga utilizzata rapidamente in molti campi, come la medicina e il lavoro, attualmente non esiste un modo riconosciuto che consenta agli esseri umani di valutarne l'impatto .

Raccomandazione: sostenere la ricerca sui sistemi di valutazione dell'impatto dell'intelligenza artificiale. Inoltre, la ricerca in questo campo dovrebbe essere condotta in stretta collaborazione con le agenzie governative, affinché i risultati possano essere utilizzati dall'amministrazione pubblica.

6. Problema: le voci di coloro i cui diritti e interessi sono lesi dall'implementazione dell'intelligenza artificiale vengono spesso ignorate .

Raccomandazione: quando si sviluppano sistemi di intelligenza artificiale, è opportuno ascoltare le opinioni delle persone interessate. L'intelligenza artificiale dovrebbe essere progettata congiuntamente da tutte le parti per evitare di risultare ingiusta o troppo radicale.

7. Problema: la ricerca sull'intelligenza artificiale si concentra principalmente sulla tecnologia elettronica e spesso non presta sufficiente attenzione alle problematiche umane. In futuro, i membri del settore dell'informatica diventeranno sempre più omogenei e unitari, il che andrà a discapito della visione e dell'esperienza degli sviluppatori di intelligenza artificiale e, a sua volta, influenzerà la creazione di prodotti di intelligenza artificiale.

Raccomandazione: i ricercatori e gli sviluppatori di intelligenza artificiale dovrebbero essere il più possibile eterogenei. La diversità e il pluralismo degli sviluppatori porteranno anche a prodotti di intelligenza artificiale più ricchi e colorati. In futuro, il campo dell'intelligenza artificiale dovrebbe supportare una ricerca più interdisciplinare, in modo che i sistemi di intelligenza artificiale possano integrare informatica, scienze sociali e discipline umanistiche.

8. Problema: gli standard etici esistenti non sono più in grado di far fronte alla complessità dei problemi che l'intelligenza artificiale deve affrontare nella realtà . (Ad esempio, nell'assistenza medica, nell'applicazione della legge, nelle condanne penali, nel lavoro, ecc.) Allo stesso tempo, nei corsi di informatica nelle università, sebbene questi corsi di scienze e ingegneria abbiano gradualmente iniziato a prestare attenzione all'educazione morale, questa non è stata ancora messa in pratica in modo completo.

Raccomandazione: collaborare con organizzazioni professionali quali l'Association for Artificial Intelligence (AAAI), l'Association for Computing Machinery (ACM) e l'Institute of Electrical and Electronics Engineers (IEEE) per promuovere lo sviluppo di standard etici in grado di affrontare nuove situazioni. Allo stesso tempo, questi nuovi standard etici dovrebbero essere implementati nelle aule scolastiche. Ogni studente interessato all'informatica dovrebbe ricevere un'educazione morale sui diritti civili, sulle libertà, ecc. oltre a corsi professionali. Di conseguenza, anche i professionisti che lavorano in settori in cui l'intelligenza artificiale è entrata in gioco (ad esempio in ambito medico) dovrebbero essere consapevoli di questi nuovi standard etici.

Quattro domande chiave sull’intelligenza artificiale oggi

Ora esamineremo più da vicino quattro questioni chiave che attualmente riguardano l'intelligenza artificiale, offrendo ai lettori l'opportunità di acquisire spunti e consigli da esperti del settore. La discussione comprende sfide, opportunità e possibili interventi per ogni questione chiave.

  1. Ingiustizia sociale

In che modo i sistemi di intelligenza artificiale causano ingiustizie sociali come pregiudizi e discriminazioni?

I sistemi di intelligenza artificiale svolgono un ruolo sempre più importante in ambiti decisionali ad alto rischio, dal credito alle assicurazioni, fino alle decisioni di terze parti e alle questioni relative alla libertà vigilata. La tecnologia dell'intelligenza artificiale sostituirà gli esseri umani nel decidere chi avrà opportunità importanti e chi sarà abbandonato, il che solleverà una serie di questioni relative ai diritti, alla libertà e alla giustizia sociale.

Alcuni credono che l'applicazione di sistemi di intelligenza artificiale possa aiutare a superare una serie di problemi causati da pregiudizi soggettivi umani, mentre altri temono che i sistemi di intelligenza artificiale amplificheranno questi pregiudizi e amplieranno ulteriormente la disuguaglianza delle opportunità.

In questa discussione, i dati svolgeranno un ruolo cruciale e susciteranno una forte attenzione da parte delle persone. Il funzionamento di un sistema di intelligenza artificiale dipende spesso dai dati che ottiene ed è anche un riflesso intuitivo di tali dati. Ciò include anche le fonti di questi dati e le distorsioni nel processo di raccolta. Da questa prospettiva, l'impatto dell'intelligenza artificiale è strettamente correlato alla corrispondente tecnologia dei big data.

In termini generali, la distorsione dei dati si presenta in due forme.

Il primo è che i dati raccolti oggettivamente non possono riflettere accuratamente la situazione reale (principalmente a causa di metodi di misurazione imprecisi, raccolta dati incompleta o eccessivamente unilaterale, autovalutazione non standardizzata e altri difetti nel processo di raccolta dati).

La seconda è che esiste un pregiudizio strutturale soggettivo nel processo di raccolta dati (ad esempio, la previsione intenzionale dei tassi di successo professionale favorendo soggettivamente i ragazzi rispetto alle ragazze quando si raccolgono dati sulla carriera).

Il primo tipo di distorsione dei dati può essere risolto "purificando i dati" o migliorando il processo di raccolta dei dati. Ma quest'ultima richiede un complesso intervento umano. Vale la pena notare che, nonostante molte organizzazioni abbiano lavorato molto per affrontare questo problema, non esiste ancora un consenso su come "rilevare" la distorsione dei dati.

Quando i dati raccolti presentano le deviazioni sopra menzionate, anche il sistema di intelligenza artificiale addestrato con tali dati presenterà deviazioni corrispondenti e il modello o i risultati che produrrà replicheranno e amplificheranno inevitabilmente tali deviazioni. In questo caso, le decisioni prese dal sistema di intelligenza artificiale avranno effetti differenziali, portando a ingiustizia sociale. E questa ingiustizia è molto più sottile dei pregiudizi e delle ingiustizie umane.

Nei settori dominati dal controllo del rischio, l'applicazione diffusa di sistemi di intelligenza artificiale ha portato a un aumento significativo di fenomeni quali il trattamento alienato delle persone basato su sottili differenze, in particolare nel settore assicurativo e in altri settori della sicurezza sociale. L'applicazione di sistemi di intelligenza artificiale può consentire alle aziende di identificare in modo più efficace gruppi e individui specifici attraverso la "selezione inversa", evitando così efficacemente i rischi.

Ad esempio, nel campo dell'assicurazione sanitaria, i sistemi di intelligenza artificiale analizzeranno le caratteristiche e i comportamenti prestazionali dei titolari di polizze e applicheranno premi più elevati a coloro che saranno identificati come affetti da particolari patologie o che presenteranno elevati tassi di incidenza futura. In questa situazione, la situazione è particolarmente svantaggiosa per le persone con problemi di salute e scarse capacità economiche. Ecco perché i critici spesso sostengono che, anche quando le previsioni dei sistemi di intelligenza artificiale sono accurate e gli assicuratori agiscono razionalmente, gli effetti sono spesso negativi.

La concorrenza nel settore assicurativo potrebbe esacerbare questa tendenza e, in ultima analisi, l'uso di sistemi di intelligenza artificiale potrebbe aggravare ulteriormente questa disuguaglianza. Naturalmente, i principi normativi contenuti nelle leggi e nei regolamenti antidiscriminazione in materia possono contribuire a risolvere questi problemi, anche se questo approccio potrebbe non essere il più efficace o equo. Inoltre, anche la progettazione e l'implementazione dei sistemi di intelligenza artificiale sono importanti, ma l'attuale quadro giuridico potrebbe ostacolare la ricerca in materia. Leggi come il Computer Fraud and Abuse Act (CFAA) e il Digital Millennium Copyright Act (DMCA) limitano questo tipo di ricerca, pertanto è necessario riformare le attuali normative per garantire che la ricerca necessaria possa procedere senza intoppi.

L'intelligenza artificiale sarà utile a una minoranza di persone?

I sistemi di intelligenza artificiale hanno introdotto nuovi metodi per generare valore economico e hanno avuto anche nuovi impatti sulla sua distribuzione. In una certa misura, la distribuzione del valore dei sistemi di intelligenza artificiale andrà a vantaggio di un gruppo di persone, perpetuando o esacerbando così i divari esistenti nella distribuzione di salari, redditi e ricchezza.

Le organizzazioni in grado di sviluppare tecnologie di intelligenza artificiale non faranno altro che aggravare questa disuguaglianza. Si prevede che l'intelligenza artificiale diventerà un settore di grandi dimensioni, con un valore di mercato di miliardi di dollari all'anno. Lo sviluppo della tecnologia dell'intelligenza artificiale richiede molti investimenti iniziali, tra cui ingenti risorse di elaborazione e big data, entrambi molto costosi. Ciò fa sì che lo sviluppo e l'applicazione dell'intelligenza artificiale siano limitati a un ambito specifico. In questo caso, solo le aziende dotate di una solida capacità di elaborazione e di dati saranno in grado di comprendere più a fondo le dinamiche di mercato attraverso sistemi di intelligenza artificiale, ottenendo così maggiori vantaggi, ottenendo l'effetto Matteo "i ricchi diventano sempre più ricchi" e ottenendo maggiore successo.

D'altro canto, l'intelligenza artificiale e i sistemi automatizzati possono ridurre il costo di beni e servizi e, se queste riduzioni dei costi possono andare a vantaggio dei consumatori, allora l'intelligenza artificiale può ridurre il divario tra ricchi e poveri. In questo caso, i sistemi di intelligenza artificiale possono migliorare gli standard di vita della società nel suo complesso e persino innescare un graduale effetto di ridistribuzione.

Inoltre, l'intelligenza artificiale porterà con sé anche uno stile di vita completamente nuovo. In un contesto di intelligenza artificiale, coloro il cui lavoro verrà lasciato indietro avranno l'opportunità di richiedere nuovi modi per acquisire risorse, mentre coloro il cui lavoro verrà interessato saranno in grado di creare nuove opportunità di lavoro attraverso l'intelligenza artificiale. In altre parole, l'intelligenza artificiale può attenuare la crisi del lavoro e consentire alle persone di perseguire nuovi modi di vivere e lavorare, migliorando così il benessere generale della società.

Tuttavia, alcuni critici hanno sottolineato che i sistemi di intelligenza artificiale potrebbero rendere ridondanti le competenze di alcuni lavoratori, costringendo coloro che vengono sostituiti dall’automazione a cercare nuove opportunità di lavoro. Anche se questi lavoratori riescono a trovare un nuovo impiego, spesso si tratta di lavori a basso valore aggiunto e con minore stabilità lavorativa. Da questa prospettiva, l'intelligenza artificiale e i sistemi di automazione di fatto eliminano posti di lavoro.

Inoltre, se apprendere nuove competenze lavorative risulta molto costoso, i lavoratori potrebbero decidere che tale formazione professionale non è commisurata al nuovo lavoro. In questo caso, i sistemi di intelligenza artificiale non solo aumenteranno la disuguaglianza sociale, ma porteranno anche alla disoccupazione permanente e alla povertà. Ecco perché comprendere il potenziale impatto dei sistemi di intelligenza artificiale sulla forza lavoro è un aspetto importante per comprendere il loro impatto sull'uguaglianza economica.

Come molte tecnologie prima di essa, l'intelligenza artificiale tende a riflettere i valori dei suoi creatori. Pertanto, l'uguaglianza nella tecnologia dell'intelligenza artificiale può essere promossa anche attraverso la diversità nelle fasi di sviluppo, implementazione e manutenzione dell'intelligenza artificiale.

Attualmente, le donne e le minoranze sono sottorappresentate nel campo dell'intelligenza artificiale e nel settore della tecnologia informatica in generale. Questa situazione ha anche portato, in una certa misura, a una mancanza di inclusività nell'intera tecnologia, dando origine a determinati pregiudizi e continuando o limitando la considerazione di altri gruppi da parte degli operatori del settore.

C'è anche una crescente consapevolezza del fatto che la diversità nel campo dell'intelligenza artificiale può aiutare i sistemi di intelligenza artificiale a servire gli interessi di diversi gruppi di persone. Per affrontare pregiudizi, discriminazioni e disuguaglianze, i team di intelligenza artificiale hanno bisogno di una prospettiva più ampia.

2. Relazioni di lavoro

Gli attuali dibattiti sui lavori e sui sistemi di intelligenza artificiale si concentrano spesso sulla preoccupazione che in futuro le persone saranno senza lavoro. Le ricerche più recenti suggeriscono che sono in gioco questioni più complesse e immediate, che riguardano non solo il mercato del lavoro, ma anche i rapporti tra datori di lavoro e dipendenti, le dinamiche di potere, le responsabilità professionali e il ruolo del lavoro nella vita umana.

Molti ricercatori economici tradizionali stanno monitorando attentamente il mercato del lavoro interno e le istituzioni aziendali negli Stati Uniti per valutare l'impatto dei sistemi di intelligenza artificiale. Questo tipo di ricerca può fornire dati qualitativi molto importanti che possono migliorare la comprensione delle tendenze macroeconomiche e delle condizioni della domanda e dell'offerta di lavoro, ad esempio quanti posti di lavoro saranno disponibili in futuro.

Allo stesso tempo, la ricerca in scienze sociali valuta il modo in cui i cambiamenti nella natura del lavoro e nelle dinamiche lavorative stanno modificando le esperienze di vita quotidiana delle persone. Entrambe le prospettive di ricerca sono essenziali per misurare gli impatti sociali ed economici dei sistemi di intelligenza artificiale sulla forza lavoro nel breve termine.

L'intelligenza artificiale influenzerà la domanda di lavoro?

Il ruolo della tecnologia dell'automazione nell'economia non è affatto una questione nuova; in effetti, la considerazione dell'impatto dei sistemi di intelligenza artificiale è oggetto di discussione da molto tempo.

Sebbene sembri che la domanda di manodopera diminuirà con la diffusione della tecnologia dell'automazione, dato che la quantità di lavoro da svolgere sarà limitata, alcuni economisti non sono d'accordo, definendo questa idea l'errore della "sintesi del lavoro". Sottolineano che, man mano che la produttività in un settore aumenta (a causa dell'automazione o di altri fattori), vengono creati nuovi settori, con conseguente nuova domanda di manodopera. Ad esempio, nel 1900 l'agricoltura rappresentava il 41% della forza lavoro degli Stati Uniti, mentre nel 2000 era solo il 2%. Nonostante questo sconvolgimento, il tasso di disoccupazione non è aumentato nel lungo periodo e, secondo David Autor e David Dorn, due economisti del lavoro, il rapporto tra occupazione e popolazione è addirittura aumentato. Altri due economisti, James Huntington e Carl Frey, hanno fatto previsioni fosche: i sistemi di intelligenza artificiale ridurranno notevolmente i posti di lavoro.

Si discute anche se i cambiamenti e le fluttuazioni nel mercato del lavoro siano legati al progresso tecnologico o se siano semplicemente il risultato della politica economica. Questo tipo di visione si concentra sul ruolo che i sistemi giuridici e i meccanismi normativi esistenti dovrebbero svolgere nello sviluppo dell'intelligenza artificiale e dei sistemi automatizzati. Robert Gordon, ad esempio, sostiene che l'attuale ondata di innovazione è meno trasformativa di quanto sembri. Molti di coloro che hanno opinioni opposte sostengono che il mercato del lavoro sta subendo notevoli cambiamenti a causa dei progressi tecnologici. Queste persone, tra cui Joseph Stiglitz e Larry Mishel, ritengono che per proteggere la forza lavoro sia necessario prestare la massima attenzione alla regolamentazione e ad altri cambiamenti nelle politiche relative all'intelligenza artificiale e ai sistemi automatizzati.

Economisti come Autor e Dorn hanno scoperto che il fenomeno della "polarizzazione dell'occupazione" sta diventando molto evidente, vale a dire che i lavori mediamente qualificati stanno diminuendo, mentre quelli altamente e poco qualificati stanno aumentando. Anche se in futuro potrebbero nascere nuovi lavori, tendono ad essere mal pagati e impopolari.

Ad esempio, gran parte del lavoro che supporta i sistemi di intelligenza artificiale deve in realtà essere svolto da esseri umani, che devono gestire l'infrastruttura e prendersi cura della "salute" del sistema. Questa forza lavoro spesso non è molto visibile, almeno in termini di copertura mediatica e di impressione che le persone hanno dell’intelligenza artificiale. Per questo motivo viene spesso sottovalutato. Tra questi lavori rientrano addetti alle pulizie che puliscono gli uffici ed eseguono lavori di manutenzione, riparatori che riparano i guasti dei server e quelli che un giornalista ha definito “igienisti dei dati” che “puliscono” i dati in preparazione per l’analisi.

Le domande sull'impatto dei sistemi di intelligenza artificiale sulla forza lavoro non dovrebbero riguardare solo se in futuro verranno creati nuovi posti di lavoro, ma anche se tali posti di lavoro saranno dignitosi e in grado di garantire un sostentamento.

Inoltre, le discussioni sui sistemi di intelligenza artificiale e sul futuro del mercato del lavoro si concentrano spesso su lavori tradizionalmente considerati a basso reddito e della classe operaia, come l'industria manifatturiera, i trasporti su camion, la vendita al dettaglio o i lavori di servizio, ma la ricerca mostra che in futuro saranno interessati un'ampia gamma di settori, compresi i lavori professionali che richiedono una formazione specializzata o un'istruzione avanzata, come la radiologia o la giurisprudenza. A questo proposito, in futuro sarà necessario affrontare nuove questioni di responsabilità professionale e di rendicontazione.

In che modo l'intelligenza artificiale influenzerà il rapporto datore di lavoro-dipendente?

Negli ultimi anni, i ricercatori hanno iniziato a studiare come l'intelligenza artificiale e i sistemi automatizzati che si basano sui big data (da Uber ai software di invio automatizzato utilizzati dai grandi rivenditori alla sorveglianza sul posto di lavoro) stiano cambiando il rapporto tra datori di lavoro e dipendenti.

Lo studio ha scoperto che, sebbene tali sistemi possano essere utilizzati per dare potere ai lavoratori, la tecnologia può anche causare gravi problemi, come la privazione dei lavoratori dei loro diritti, l'aggravamento della discriminazione sul lavoro e la promozione di pratiche lavorative ingiuste.

Ad esempio, i sistemi di gestione e pianificazione della forza lavoro basati sull'intelligenza artificiale vengono sempre più utilizzati per gestire la forza lavoro, alimentando la crescita dell'economia on-demand e l'ascesa del precariato. Mentre alcuni ricercatori sostengono che una corretta pianificazione può garantire una preziosa flessibilità, studi più approfonditi hanno dimostrato che i dipendenti sottoposti a tali sistemi soffrono di stress emotivo e insicurezza.

Le esperienze negative dei lavoratori gestiti da questi sistemi includono la sottoccupazione cronica, l'instabilità finanziaria, la mancanza di benefit disponibili per i tradizionali dipendenti a tempo pieno e l'incapacità di pianificare la cura della famiglia o di sé stessi (o di trovare un altro lavoro perché non sopportano la natura su chiamata di tale lavoro che spesso lo richiede). Inoltre, è più probabile che i dipendenti interessati da queste problematiche siano donne e appartenenti a minoranze.

Inoltre, i nuovi modelli di gestione da remoto basati su sistemi di intelligenza artificiale renderanno più difficile attribuire ai datori di lavoro decisioni prese dal “sistema” che hanno gravi ripercussioni sui dipendenti. Di conseguenza, i dipendenti sono più vulnerabili allo sfruttamento.

Ad esempio, i big data e le piattaforme basate sull'intelligenza artificiale come Uber controllano da remoto i percorsi, i prezzi, i compensi e persino gli standard per la comunicazione interpersonale, decisioni che tradizionalmente sono state gestite dagli esseri umani.

Oltre a oscurare la natura e la logica di decisioni specifiche, questo tipo di gestione a distanza non è solitamente considerato "gestione dei dipendenti".

Poiché questi nuovi modelli di gestione non si adattano perfettamente ai modelli normativi esistenti, aziende come Uber si posizioneranno come aziende tecnologiche piuttosto che come manager di dipendenti. Secondo questa filosofia, tali aziende si considerano piattaforme che facilitano le connessioni e pertanto non hanno la stessa responsabilità nei confronti dei dipendenti dei datori di lavoro tradizionali. In base a questo modello, in ultima analisi sono i dipendenti a farsi carico dei rischi derivanti dall'impiego, sia dai benefici (come la riduzione degli oneri fiscali, dell'assistenza sanitaria e di altre tutele del lavoro) sia dai potenziali modelli di agevolazione.

3. Assistenza sanitaria

La maggior parte dei sistemi di intelligenza artificiale che abbiamo visto applicare nel campo sanitario si basano su grandi database. Questi sistemi di intelligenza artificiale estraggono automaticamente varie informazioni importanti dagli enormi dati che raccolgono attraverso vari modelli statistici complessi e tecniche di apprendimento automatico.

Le (in crescita) fonti di dati sanitari già in uso, tra cui cartelle cliniche elettroniche (EHR), database clinici e sanitari e dati sanitari caricati da dispositivi elettronici di consumo e app, vengono già utilizzate in gran numero nei sistemi di intelligenza artificiale, che hanno il potenziale per migliorare l'assistenza sanitaria.

Che si tratti di diagnosi clinica, assistenza ai pazienti o farmaci; che si tratti di produzione di farmaci, gestione organizzativa o interazione di informazioni relative all'assicurazione sanitaria, questi sistemi di intelligenza artificiale hanno notevolmente agevolato il lavoro dei medici.

Come si integra l'intelligenza artificiale nella ricerca medica e nell'assistenza sanitaria?

L'integrazione dei sistemi di intelligenza artificiale nella ricerca medica offre prospettive applicative estremamente interessanti. Può aiutarci a comprendere meglio la patologia di queste malattie, a sviluppare nuovi trattamenti, a ottenere diagnosi mediche più accurate e persino a produrre medicinali speciali e personalizzati per ogni individuo.

Tuttavia, dati gli attuali limiti e pregiudizi nell'applicazione dell'intelligenza artificiale al campo medico, la realizzazione di queste prospettive applicative potrebbe risultare ostacolata, il che richiede ai ricercatori di esplorare questa tecnologia all'avanguardia con maggiore attenzione.

Attualmente, i limiti dell'applicazione della tecnologia AI al campo medico includono dati di ricerca incompleti o imprecisi, che non coprono specifici gruppi minoritari. Inoltre, il complesso sistema di incentivi per i sussidi sanitari, in particolare quello dell'assicurazione sanitaria statunitense, ostacolerà in una certa misura l'applicazione della tecnologia medica basata sull'intelligenza artificiale. Per fare un semplice esempio, alcuni degli attuali sistemi di sussidi sanitari sosterranno maggiormente lo sviluppo di determinati tipi di farmaci o saranno più inclini a sovvenzionare piani di trattamento individuali.

I dati della ricerca medica presentano spesso proprietà oggettive e universali, ma nell'applicazione pratica queste conclusioni della ricerca appaiono spesso unilaterali, temporanee e mirate solo a determinati gruppi o malattie. I modelli analizzati e stabiliti dai sistemi di intelligenza artificiale sulla base di questi dati "unilaterali" possono portare a, stabilire o derivare alcune ipotesi errate.

Fortunatamente, errori di questo tipo possono essere evitati. Se i dati raccolti da un sistema di intelligenza artificiale non presentano i difetti sopra menzionati (supponendo che ciò possa essere garantito), o se il framework di dati utilizzato dal sistema di intelligenza artificiale ha la capacità di correggere autonomamente questi problemi, come gli studi clinici randomizzati (RCT) o altri database medici pubblici, e può ridurre i suoi errori e distorsioni intrinseci, può efficacemente evitare il verificarsi di errori gravi.

Supponendo che questi errori siano abbastanza piccoli da poter essere ignorati, una delle prospettive applicative più probabili dell'integrazione dei sistemi di intelligenza artificiale nei centri di ricerca medica e sanitaria e nei centri di pratica clinica è quella di consentire all'intelligenza artificiale di assistere i medici nella diagnosi delle malattie e di scoprire modelli regolari a partire da dati massivi, aiutando così i medici a individuare prima quelle lesioni "astute" nascoste in profondità nel corpo.

Infatti, i sistemi di intelligenza artificiale sono ormai in grado di diagnosticare alcune malattie, tra cui la leucemia. Durante le fasi di esame e di assistenza clinica, in alcuni casi i sistemi di intelligenza artificiale potrebbero riuscire a ridurre o addirittura prevenire diagnosi errate. È opportuno sottolineare che una diagnosi errata può essere fatale, per cui il valore della tecnologia di diagnosi assistita dall'intelligenza artificiale è evidente.

In questo senso, i sistemi di intelligenza artificiale svolgono un ruolo sempre più importante nella diagnosi e nell'identificazione dei sintomi. Tuttavia, è proprio per questo che i ricercatori devono essere vigili per evitare situazioni in cui l'intelligenza artificiale faccia ipotesi errate e deduca descrizioni delle condizioni di salute come "normali" o "medie".

Allo stesso modo, basta guardare alla storia degli Stati Uniti prima del 1973 per immaginare cosa potrebbe accadere se l'intelligenza artificiale diagnosticasse erroneamente una malattia. La tragedia era inevitabile quando l'American Psychiatric Association incluse l'omosessualità tra le malattie mentali nel suo autorevole Manuale Diagnostico e Statistico dei Disturbi Mentali.

Allo stesso modo, quando i sistemi di intelligenza artificiale vengono applicati direttamente all'assistenza ai pazienti, saranno coinvolti in tutti gli aspetti della diagnosi e della gestione clinica, il che spesso separerà chi si occupa di loro dai pazienti, per cui è importante chiarire adeguatamente i limiti della "competenza" dell'intelligenza artificiale.

Prima di assumere il suo incarico, un chirurgo umano frequenterà la facoltà di medicina. Solo dopo aver superato rigorose valutazioni le loro competenze mediche possono essere riconosciute a livello mondiale. Ma come possiamo creare un medico dotato di intelligenza artificiale eccezionale che possa assistere o addirittura sostituire un famoso medico umano con un "diploma"?

Un sistema medico basato sull'intelligenza artificiale di questo tipo richiede un'autorità di livello esperto assolutamente accurata, senza alcuna diagnosi errata o distorsione diagnostica. Questo livello di fiducia implica che questi sistemi di intelligenza artificiale saranno soggetti a un controllo minore, sia in termini di valutazione delle loro capacità prima di uscire dalla fabbrica, sia in termini di verifica dei loro limiti, il che creerà nuove questioni etiche attualmente non coperte dal quadro di etica medica.

Inoltre, dobbiamo prestare attenzione anche a questioni quali dove tali sistemi di intelligenza artificiale in campo medico vengono impiegati nel settore dell'assicurazione sanitaria, da chi ne traggono beneficio e così via. Sebbene vi sia una reale necessità di rendere l'assistenza sanitaria accessibile e conveniente per tutti, è ampiamente dimostrato che l'accesso all'assicurazione sanitaria e ai dati sanitari non è distribuito equamente, e che i poveri, le persone di razza non bianca e le donne sono spesso svantaggiati.

Invece di sradicare queste disuguaglianze sistemiche, l'integrazione dei sistemi di intelligenza artificiale nel sistema sanitario potrebbe in realtà amplificare la gravità di questi problemi. Mentre i sistemi di intelligenza artificiale possono consentire un'assistenza personalizzata che apporta benefici a un'ampia gamma di persone, possono anche essere addestrati intenzionalmente per escludere gruppi periferici che sono spesso trascurati e poco assistiti.

Se questi gruppi non vengono considerati adeguatamente, ciò influirà a sua volta sui modelli predittivi sviluppati dai sistemi di intelligenza artificiale. I modelli di previsione dell'intelligenza artificiale saranno costantemente rafforzati dai dati sanitari caricati dai gruppi privilegiati che hanno accesso a tali sistemi di intelligenza artificiale, in modo che possano fornire in modo efficace un feedback sullo "stato di salute" dei ricchi e, in ultima analisi, costruire un modello cognitivo olistico di salute e malattia che escluderà completamente i "gruppi marginali".

Considerato l'attuale caos nelle finanze del sistema sanitario statunitense, tali preoccupazioni meritano sicuramente maggiore attenzione. Proprio come questo caos ha influenzato l'integrazione della tecnologia medica in passato, inevitabilmente influenzerà la configurazione e l'efficacia dei sistemi medici basati sull'intelligenza artificiale in futuro.

Sulla base di queste considerazioni, mentre le persone promuovono lo sviluppo continuo dei sistemi medici basati sull'intelligenza artificiale, lavorano anche costantemente per ridurne i costi. Ciò spingerà anche le parti interessate (come politici, compagnie assicurative, istituzioni sanitarie, aziende farmaceutiche, datori di lavoro e altri) a scommettere sulla raccolta di dati sanitari su larga scala e sullo sviluppo di sistemi di intelligenza artificiale, in modo da aiutarli a proteggere meglio i loro interessi economici nello sviluppo di modelli e nell'assistenza medica.

Tuttavia, la formazione critica, le risorse e la manutenzione continua necessarie per integrare questi sistemi informatici e di intelligenza artificiale negli ospedali e in altri sistemi sanitari non sempre sono supportate o finanziate. Questa situazione ha portato di fatto a una distribuzione non uniforme delle risorse e delle capacità tecniche.

In che modo la raccolta dati e le osservazioni dei pazienti necessarie per addestrare l'intelligenza artificiale influenzeranno la privacy personale?

L'estrema dipendenza del sistema di intelligenza artificiale dal volume di dati e la necessità di osservare i casi sollevano naturalmente questioni urgenti quali la privacy del paziente, la riservatezza e la tutela della sicurezza.

Attualmente, la realizzazione delle aspettative di elevate prestazioni per i sistemi medici basati sull'intelligenza artificiale dipende dall'acquisizione continua di enormi quantità di dati sui pazienti attraverso una varietà di dispositivi, piattaforme e Internet. Questo processo coinvolgerà inevitabilmente alcune persone o organizzazioni che si impegnano in un comportamento di sorveglianza straordinario guidato dagli interessi.

Allo stesso tempo, tecnologie come la crittografia omomorfica, la privacy differenziale e la privacy stocastica ci portano nuove speranze di trattare con questi fenomeni caotici. Possono consentire ai sistemi di intelligenza artificiale di "chiamarli direttamente" senza "cercare" i dati. Sebbene queste nuove tecnologie siano ancora nelle prime fasi di ricerca e sviluppo e nemmeno un'applicazione generale è stata sviluppata, mostrano incoraggianti prospettive di applicazione.

Inoltre, con la recente promozione della medicina basata sull'evidenza da parte del governo degli Stati Uniti e il cambiamento dell'Affordable Care Act da un servizio a pagamento a un trattamento a pagamento, gli interessi economici coinvolti nel comportamento normativo e il consumo di dati sanitari sensibili stanno diventando sempre più gravi.

Per quanto riguarda le compagnie assicurative, con l'introduzione dei sistemi di intelligenza artificiale, anche la pressione che affrontano per verificare la razionalità degli schemi di subsidia si sta aumentando.

Ad esempio, sebbene il governo degli Stati Uniti abbia emanato la legge sulla non discriminazione delle informazioni genetiche nel 2008, le compagnie assicurative sono sempre più interessate a ottenere informazioni sul rischio genetico a causa della necessità di una gestione a livello assicurativo. In effetti, i prezzi differenziali sono ora diventati una pratica del settore comune tra i fornitori di analisi dei dati, che a sua volta consolida e aggrava ulteriormente le disuguaglianze esistenti.

Inoltre, i "dispositivi intelligenti" e altri sensori collegati che consentono ai sistemi di intelligenza artificiale di ottenere i dati di cui hanno bisogno hanno reso onnipresente il monitoraggio e la sorveglianza, che espande costantemente l'ambito delle attuali politiche di protezione della privacy, come la legge sulla portabilità dell'assicurazione sanitaria e sulla responsabilità, che è stata creata con questo in mente.

Poiché i sistemi di intelligenza artificiale sono sempre più integrati nei prodotti per la salute e l'elettronica di consumo, è in aumento il rischio che i pazienti vengano ridefiniti in base a dati segmentati o che hanno identità, malattie e altre informazioni sanitarie previste dai dati proxy.

Inoltre, il software che guida questi dispositivi di raccolta dei dati è spesso mantenuto privatamente piuttosto che open source (non soggetto a revisione e revisione contabile esterni). Sebbene il governo degli Stati Uniti abbia recentemente firmato un decreto che esonera le disposizioni pertinenti nel Digital Millennium Copyright Act, rendendo possibile rivedere il codice delle strutture mediche esterne, forse più importante è rivedere quelle strutture mediche interne, che non è coperta da questa esenzione.

In generale, gli esperti del settore hanno avvertito i significativi rischi per la sicurezza di distribuire la tecnologia di rete su dispositivi IoT, molti dei quali sono specificamente rivolti a problemi di sicurezza dei dispositivi medici.

In che modo l'intelligenza artificiale avrà un impatto sui pazienti e sui fornitori di assicurazioni sanitarie?

Le tecnologie di intelligenza artificiale che sono state realizzate o dovrebbero essere realizzate hanno implicazioni di vasta portata per la costruzione di sistemi di assistenza sanitaria e sono anche di grande significato per i pazienti che hanno bisogno di cure o per quelli con condizioni fisiche deboli.

Le persone hanno molte belle idee sui sistemi di intelligenza artificiale, bloccando le loro speranze come mediatori del lavoro infermieristico e credendo che possano sostituire completamente il lavoro dei caregiver in futuro. Questo spostamento è promettente, economico ed efficiente ed è probabile che migliorino la relazione tra i pazienti e i loro medici o altri caregiver e il modo in cui lavorano.

Esistono numerosi esempi che dimostrano il potenziale dei sistemi di intelligenza artificiale per sostituire o aiutare il lavoro di assistenza umana, tra cui chirurghi robot, maggiordomi virtuali e robot di accompagnamento. Questi esempi hanno gradualmente suscitato alcuni dibattiti, ad esempio se il significato sociale delle cure per procura e l'assistenza sociale può essere sostituito da macchine non umane? Quando le macchine sostituiscono il lavoro umano, non solo possono migliorare le competenze umane ma anche diventare veramente indipendenti? Quando pensiamo che una macchina abbia la capacità di "cure" per un paziente, che tipo di capacità di "cura" ha? Come definiamo la parola "infermieristica"? Queste cose che pensiamo sono considerate dal punto di vista dei diritti dei pazienti?

Al momento, sebbene i robot di accompagnamento non abbiano raggiunto alcun risultato evidente nella sostituzione del lavoro infermieristico umano, la prospettiva di app Ai-Briven e dispositivi collegati che consentono ai pazienti di riprendere il controllo della propria gestione della salute sta aumentando di giorno in giorno, il che indica anche che l'interazione diretta tra sistemi medici di intelligenza artificiale e pazienti è nelle prime fasi di sviluppo.

Questo tipo di interazione diretta tra umani e AI è in realtà una spada a doppio taglio. Da un lato, può aiutare i pazienti a riprendersi più velocemente e avere una migliore comprensione delle proprie condizioni. D'altra parte, questo cambiamento richiede anche loro di correre più rischi. Questi rischi includono che può fuorviare i pazienti e influire sulla qualità e l'accuratezza delle informazioni che possono ricevere, il che è anche la preoccupazione che la Federal Trade Commission (FTC) ci abbia comunicato negli ultimi anni.

Inoltre, queste app equipaggiate dall'IA possono anche trasferire le responsabilità di cui i medici devono sopportare il paziente stesso, ma questa potrebbe non essere una buona notizia per i pazienti, perché non tutti hanno i canali del tempo, delle risorse finanziarie e della tecnologia AI per ottenere assistenza per la propria salute.

Quindi, che tipo di pazienti può dare priorità al godimento dei dividendi di questi ancora migliorando la tecnologia medica dell'IA? Per i pazienti che hanno "attrezzature" scarse ma vogliono gestire e mantenere i loro dati personali, l'assistenza sanitaria che ricevono non qualificate?

Inoltre, quali nuovi ruoli dotati di designer e sviluppatori dotati di applicazioni della tecnologia AI devono svolgere in questo processo di evoluzione sociale? Quali nuove responsabilità hai bisogno di avere?

In che modo quei etici medici che sono sempre stati in prima linea nella tempesta saranno integrati in queste tecnologie uniche e nuove di ingegneria?

4. Responsabilità morale

L'implementazione dei sistemi di intelligenza artificiale non solo aumenterà nuove responsabilità, ma pone anche sfide per aree esistenti come etica professionale, etica della ricerca e persino valutazioni della sicurezza pubblica.

Recentemente, le discussioni sui sistemi morali e di intelligenza artificiale tendono a dare la priorità ai sistemi di intelligenza artificiale che possono emergere a lungo, come l'avvento della "singolarità" o lo sviluppo della super intelligenza.

Cioè, questa discussione spesso non si concentra sull'impatto morale dei sistemi di intelligenza artificiale a breve o medio termine, ad esempio, il gran numero di sistemi di intelligenza artificiale basati sulle attività attualmente in uso, solleva nuove sfide, può esacerbare la disuguaglianza o cambiare fondamentalmente il meccanismo di potere.

La capacità di svolgere una varietà di attività sui sistemi di intelligenza artificiale contemporanei, tali tecnologie possono causare varie conseguenze implicite ed esplicite e quindi può porre nuove sfide ai tradizionali quadri etici. Quando i sistemi di intelligenza artificiale sono distribuiti nella società umana, possono causare interazioni e conseguenze imprevedibili.

In termini di allocazione delle risorse e potenziale per centralizzare o riorganizzare il potere e le informazioni, ci sono problemi critici che devono essere affrontati per garantire che la tecnologia AI non causa danni, specialmente per i gruppi emarginati.

Come concediamo il potere all'IA o delegare l'intelligenza artificiale per prendere decisioni?

L'integrazione dei sistemi di intelligenza artificiale nei settori sociali ed economici richiede di trasformare i problemi sociali in problemi tecnici che possono essere risolti dall'intelligenza artificiale. Questo spostamento non garantisce che il sistema AI produrrà meno errori rispetto al sistema esistente che sostituirà. Ryan Calo ha sottolineato che le persone di solito pensano che i sistemi di intelligenza artificiale (come le auto autonome) commetteranno meno errori rispetto agli umani. In realtà non lo è. I sistemi di intelligenza artificiale con bassa complessità commettono inevitabilmente nuovi errori che gli umani non commetteranno.

In molte aree, i quadri etici richiedono spesso la generazione di registri, come cartelle cliniche, file del caso dell'avvocato o documenti presentati dai ricercatori al comitato di revisione istituzionale. Inoltre, le persone hanno istituito meccanismi correttivi per pazienti, clienti o coloro che sentono di essere stati trattati ingiustamente.

I sistemi di intelligenza artificiale contemporanei spesso non riescono a fornire tali meccanismi di registrazione o di risanamento, sia perché tecnicamente non disponibili o perché i progettisti non considerano tali registrazioni o meccanismi.

Ciò significa che i gruppi specifici o le persone interessate non sono spesso in grado di testare o sfidare le decisioni sull'intelligenza artificiale o altri sistemi di previsione. Ciò peggiorerà varie forme di asimmetria di potenza. E l'aberrazione del potere è una questione etica molto importante.

Quando le persone colpite non sono in grado di testare, sfidare o appellarsi a tali decisioni automatizzate, sono relativamente mancanza di potere.

Il rischio che i sistemi di intelligenza artificiale non solo indeboliranno il potere di mettere in discussione i gruppi vulnerabili, ma darà anche ai progettisti più potere di definire il comportamento morale. Questo potere può essere presentato in una forma molto sottile. Ad esempio, vari sistemi di automazione sono spesso usati per influenzare o "perfezionare alcuni individui in una certa direzione e chi ha un ruolo in gran parte decisivo o dominante è il partito che progetta e profitti da tali sistemi.

Se vogliamo costruire un sistema di intelligenza artificiale da zero per raggiungere obiettivi come correggere gli squilibri di cui sopra, questo stesso sarà limitato dal divario di forza. Costruire e mantenere i sistemi di intelligenza artificiale richiede molte risorse di elaborazione e molti dati. Le aziende con dati enormi e risorse di elaborazione hanno più vantaggi strategici di quelli che non hanno tali risorse.

Come affrontiamo le questioni etiche relative all'IA in vari settori esistenti?

Man mano che i sistemi di intelligenza artificiale diventano sempre più integrati in diversi ambienti del settore (come medicina, legge e finanza), dovremo anche affrontare nuovi dilemmi morali in diversi settori.

Ad esempio, l'applicazione dei sistemi di intelligenza artificiale negli ambienti sanitari sfiderà i valori fondamentali sostenuti nel codice etico degli operatori sanitari (ad esempio, coinvolgendo la riservatezza, la continuità delle cure, l'evitamento dei conflitti di interesse e il diritto di sapere).

Con diverse parti interessate nel settore medico, sono state lanciate un'ampia varietà di prodotti e servizi di intelligenza artificiale. Le sfide a questi valori fondamentali possono essere presentate in modi completamente nuovi e inaspettati.

Quando un medico usa attrezzature diagnostiche di intelligenza artificiale quando viene addestrato utilizzando i dati di prova farmaceutica da una società farmaceutica che è un interesse acquisito per una prescrizione di droga, come dovrebbe il medico a conformarsi al suo giuramento per evitare conflitti di interesse?

Sebbene questa sia una situazione ipotetica, sottolinea i problemi difficili che devono essere affrontati nel processo di revisione e aggiornamento del Codice dell'etica del lavoro.

Allo stesso modo, è necessario per le associazioni professionali responsabili della gestione di R&S e manutenzione per prendere in considerazione l'adozione di misure corrispondenti. Ad esempio, l'American Association of Artificial Intelligence (AAAI) dovrebbe formulare codici etici pertinenti, mentre l'American Computer Association (ACM) e l'Associazione degli ingegneri elettrici ed elettronici (IEEE) dovrebbero rivedere attentamente i codici etici pertinenti. Gli esistenti codici etici di ACM e IEEE hanno oltre 20 anni di storia, inutile dire, non solo non riescono ad affrontare le questioni fondamentali relative alle istituzioni umane, alla privacy e alla sicurezza, ma non riescono anche a impedire i possibili danni di intelligenza artificiale e altri sistemi decisionali automatizzati. Ciò sta diventando sempre più importante poiché la tecnologia AI è ulteriormente integrata in importanti campi sociali.

Sebbene più istituti di istruzione superiore abbiano iniziato a sottolineare l'importanza dell'etica professionale nell'insegnamento della tecnologia e delle major scientifiche, questo sforzo è ancora nelle sue prime fasi e c'è ancora spazio per un'ulteriore espansione. Conoscenza in settori come i diritti civili, le libertà civili e la pratica morale non è ancora diventata la portata dei requisiti che gli studenti devono padroneggiare quando si laureano. Inoltre, vale la pena notare una cosa. Se qualcuno viola il codice morale della comunità medica, la punizione di cui ha bisogno include la perdita del potere di praticare la medicina, che non si applica all'a informatica o a molti altri campi correlati.

Non è chiaro se la maggior parte degli informatici abbia familiarità con i contenuti fondamentali delle linee guida ACM o IEEE. Inoltre, non siamo sicuri se i datori di lavoro aziendali sceglieranno di non rispettare tali regolamenti non vincolanti a causa di altri incentivi o fattori di stress. Pertanto, dal punto di vista pratico, oltre a semplicemente riscrivere e aggiornare il quadro etico, è necessario prestare attenzione a una più ampia gamma di meccanismi di incentivazione e garantire che il rispetto delle norme etiche non sia qualcosa che sarà ricordato in seguito al campo di allenamento.

Spiega i suggerimenti

Di seguito elaboreremo ulteriormente i principi di base dietro i suggerimenti brevemente menzionati sopra.

1. Diversificare e ampliare le risorse necessarie per lo sviluppo e la distribuzione dell'IA , come l'uso di set di dati, risorse di elaborazione, istruzione e formazione, comprese le opportunità di espansione per la partecipazione a tale sviluppo. In particolare concentrarsi sulla popolazione attualmente priva di tali visite.

Come molti menzionati durante l'IA ora Workshop degli esperti, questi metodi di sviluppo e formazione dei sistemi di intelligenza artificiale sono costosi e limitati a poche grandi aziende. O semplicemente metterlo, l'intelligenza artificiale fai -da -te è impossibile senza molte risorse. Il modello AI per la formazione richiede molti dati: più è meglio. Richiede anche una potenza di calcolo enorme, che è costosa. Ciò consente di limitare anche la ricerca di base alle aziende che possono permettersi tali commissioni di utilizzo, limitando così la possibilità di democratizzare lo sviluppo dei sistemi di intelligenza artificiale per servire diversi obiettivi di popolazione. Investire in infrastrutture di base e utilizzare dati di formazione adeguati può aiutare a livellare la concorrenza. Allo stesso modo, l'apertura dei processi di sviluppo e progettazione nelle industrie e nelle istituzioni esistenti per diversificare discipline interne e commenti esterni può aiutare a sviluppare sistemi di intelligenza artificiale che soddisfano meglio e riflettono le esigenze di un ambiente diversificato.

2. Aggiornare la definizione e il quadro che concretizzano il comportamento del lavoro equo per adattarsi ai cambiamenti strutturali che si verificano quando la gestione dell'IA è distribuita sul posto di lavoro. Allo stesso tempo, sono studiati i modelli di reddito alternativo e di distribuzione delle risorse, istruzione e riqualificazione per adattarsi alla crescente automazione del lavoro ripetitivo in futuro e alle mutevoli tendenze del lavoro e dell'occupazione.

All'IA ora Workshop di esperti, l'economista capo del presidente Obama Jason Furman ha sottolineato che l'83% dei posti di lavoro che guadagna meno di $ 20 l'ora negli Stati Uniti dovrà affrontare una forte pressione sull'automazione. Per i lavori a medio reddito con un salario orario di $ 20-40, questo è anche fino al 31%. Questo è un enorme cambiamento nel mercato del lavoro, che può portare a una classe disoccupata permanente. Al fine di garantire che l'efficienza dei sistemi di intelligenza artificiale non provochi disagio pubblico nel mercato del lavoro, o la dissoluzione di importanti istituzioni sociali come l'educazione (esiste un modo possibile migliore per vedere l'istruzione come non più considerato l'occupazione), in cui emerge un grande cambiamento, che emerge a vari motoscati a livello di controllo di benefici per il benessere per il benessere per il benessere di beneficiario di benefici per il controllo di benefici per il controllo di benefici per il benessere, il modo in cui si è verificati un passaggio di attività di controllo, il modo in cui si è verificati un passaggio di attività di auto-Organizzato per il controllo di un problema, i problemi di controllo, devono essere abilizzati per il controllo di una cassa di controllo.

Oltre ai "lavoratori sostitutivi", i sistemi di intelligenza artificiale hanno anche altri impatti multipli sul mercato del lavoro. Ad esempio, cambiano il ruolo delle relazioni di potere, le aspettative sull'occupazione e il lavoro stesso. Questi cambiamenti hanno avuto profondi impatti sui lavoratori, quindi quando si introducono i sistemi di intelligenza artificiale, è importante comprendere questi impatti quando si considerano come esprimere pratiche giuste e ingiuste. Ad esempio, se un'azienda che sviluppa un sistema di intelligenza artificiale che agisce effettivamente come gestione può essere considerata una società di servizi tecnologici, a differenza di un datore di lavoro, i dipendenti non può essere protetta dalle leggi esistenti.

3. Nella fase di progettazione e distribuzione, supportare i metodi di ricerca e sviluppo per misurare e valutare l'accuratezza e l'equità dei sistemi di intelligenza artificiale . Allo stesso modo, i metodi di ricerca e sviluppo per misurare e affrontare gli errori e i danni dell'intelligenza artificiale che si verificano una volta utilizzati, inclusa la responsabilità che coinvolge la notifica, la correzione e la mitigazione di questi errori e danni causati dal processo decisionale automatico dei sistemi di intelligenza artificiale. Questi approcci dovrebbero dare la priorità a informare le persone interessate dal processo decisionale automatizzato e sviluppare metodi per obiettare a giudizi errati o dannosi.

L'intelligenza artificiale e i sistemi predittivi determinano sempre più se le persone possono guadagnare o perdere opportunità. In molti casi, le persone non si rendono conto che si tratta di macchine, non umani, che prendono decisioni che cambiano la vita. Anche se si rendono conto, non esiste un processo standard per obiettare errate o rifiutare decisioni dannose. Dobbiamo investire in prototipi di ricerca e tecnologia per garantire che i diritti e le responsabilità fondamentali siano rispettati in un ambiente in cui i sistemi AI sono sempre più utilizzati per prendere decisioni importanti.

4. Chiarire che né la Fraud and Abuse Act anti-computer né il Digital Millennium Copyright Act sono usati per limitare la ricerca sulla responsabilità di intelligenza artificiale . Per condurre ricerche necessarie per testare, misurare e valutare l'impatto dei sistemi di intelligenza artificiale sul processo decisionale nelle istituzioni pubbliche e private, in particolare per quanto riguarda le principali preoccupazioni sociali come l'equità e la discriminazione, i ricercatori devono essere chiaramente autorizzati a testare i sistemi attraverso un gran numero di nomi di dominio e attraverso un gran numero di metodi diversi. Tuttavia, alcune leggi statunitensi, come la Fraude and Abuse Act (CFAA) e il Digital Millennium Copyright Act (DMCA), rendono illegali interagire con sistemi informatici che sono pubblicamente discutibili su Internet e possono limitare o vietare tale ricerca. Queste leggi dovrebbero essere chiarite o modificate per consentire esplicitamente la promozione di interazioni in una ricerca così importante.

5. Supportare la ricerca di base su potenti metodi di valutazione e valutazione dell'impatto dei sistemi di intelligenza artificiale sulla vita sociale ed economica in ambienti reali . Collaborare con agenzie governative per integrare queste nuove tecnologie nelle loro capacità investigative, normative e delle forze dell'ordine.

Attualmente ci mancano pratiche rigorose nella valutazione e nella comprensione dell'impatto socio-economico dei sistemi di intelligenza artificiale. Ciò significa che i sistemi di intelligenza artificiale sono integrati nelle aree socio-economiche esistenti e distribuiti in nuovi prodotti e ambienti senza misurare o calcolare accuratamente il loro impatto. Questa situazione è simile alla conduzione di un esperimento ma non è disposta a registrare i risultati. Per garantire i vantaggi dei sistemi di intelligenza artificiale, la ricerca coordinata e lo sviluppo di approcci rigorosi per comprendere l'impatto dei sistemi di intelligenza artificiale, che se utilizzati possono aiutare a formare pratiche standard tra i dipartimenti e all'interno dei governi. Questo studio e i suoi risultati possono essere confrontati con i sistemi di allarme precoce.

6. Quando si sviluppano e si distribuiscono congiuntamente tali sistemi con queste persone, progettano congiuntamente AI responsabile con rappresentanti della comunità e membri interessati da applicazioni decisionali automatizzate e sistemi di intelligenza artificiale .

In molti casi, queste persone colpite dai sistemi AI saranno gli esperti più autorevoli nell'ambiente e sui risultati del sistema AI. Soprattutto, data la mancanza di diversità nell'attuale campo AI, le persone colpite dallo schieramento dei sistemi di intelligenza artificiale sono effettivamente impegnati a fornire feedback e direzioni di progettazione e questi suggerimenti dai meccanismi di feedback possono influenzare direttamente lo sviluppo dei sistemi di intelligenza artificiale e il più ampio quadro politico.

7. Rafforzare le azioni per migliorare la diversità degli sviluppatori e dei ricercatori di intelligenza artificiale e ampliare e integrare tutte le prospettive, gli ambienti e le discipline nello sviluppo del sistema AI. Il campo AI dovrebbe anche combinare il calcolo, le scienze sociali e le discipline umanistiche per supportare e promuovere la ricerca interdisciplinare dell'IA che si concentra sull'impatto dei sistemi di intelligenza artificiale su molteplici prospettive.

L'informatica come disciplina manca di diversità. Soprattutto la grave mancanza di praticanti è anche peggio nell'intelligenza artificiale. Ad esempio, mentre alcuni laboratori accademici di intelligenza artificiale sono gestiti da donne, solo il 13,7% dei partecipanti erano donne alla recente conferenza sui sistemi di elaborazione delle informazioni neurali, che è una delle più importanti conferenze annuali del settore. È improbabile che la mancanza di circoli diversificati consideri i bisogni e le preoccupazioni di queste persone che non ci sono. Quando queste esigenze e preoccupazioni diventano il centro delle istituzioni socio-economiche che distribuiscono l'IA, è importante comprendere queste esigenze e preoccupazioni e lo sviluppo dell'IA riflette questi importanti punti di vista. Concentrarsi sullo sviluppo della diversità della popolazione di intelligenza artificiale è la chiave, oltre al genere e al rappresentazione delle popolazioni protette, inclusa la diversificazione di varie discipline oltre alla scienza dell'informatica e sulla pratica dello sviluppo che si basa su conoscenze professionali apprese dai campi socioeconomici correlati.

Nelle aree socio-economiche al di fuori e all'interno dell'informatica, una valutazione approfondita dell'IMPARE richiederà la maggior parte di questa competenza. Poiché l'intelligenza artificiale è integrata e utilizzata in molti ambienti, come medicina, mercato del lavoro o pubblicità online, è essa stessa una ricca area di apprendimento. Per sviluppare veramente un processo rigoroso per la valutazione dell'impatto dell'intelligenza artificiale, avremo bisogno di una collaborazione interdisciplinare per stabilire nuove direzioni e aree di ricerca.

8. Lavorare con organizzazioni professionali come l'American Association for the Advancement of Artificial Intelligence (AAAI), l'American Association of Computers (ACM) e l'associazione di ingegneri elettrici ed elettronici (IEEE) per aggiornare (o produrre) codici etici professionali per riflettere meglio la complessità di distribuzione di sistemi AI e di automazione nel campo socio-economico. I diritti civili, le libertà civili e i corsi di formazione morale per chiunque voglia padroneggiare l'informatica riflettono questi cambiamenti nell'istruzione. Allo stesso modo, l'aggiornamento dei codici etici professionali limita i professionisti che introducono sistemi di intelligenza artificiale come l'etica applicabile ai medici e ai lavoratori ospedalieri.

In professioni come la medicina e la legge, il comportamento professionale è vincolato da codici etici di comportamento accettabile e inaccettabile controllato. Organizzazioni professionali come ACM e IEEE sviluppano codici etici, ma questi codici sono obsoleti e insufficienti per affrontare le sfide specifiche e spesso sottili poste dall'uso di sistemi di intelligenza artificiale in ambienti socio-economici complessi. Mentre i medici aderiscono all'etica professionale che limitano il loro comportamento ai pazienti, lo sviluppo di sistemi di intelligenza artificiale, come aiutare i medici a diagnosi e trattare i pazienti, è emerso con sfide etiche che i codici esistenti dell'etica del lavoro non risolvono sempre. Le linee guida professionali e la formazione sull'informatica devono essere aggiornate per riflettere la responsabilità dei costruttori di sistemi di intelligenza artificiale a coloro che soffrono di vari gradi di impatti negativi a causa dell'uso di questi sistemi. Quando l'IA viene utilizzata per migliorare il processo decisionale umano, il codice dell'etica del lavoro dovrebbe includere misure di protezione per identificare la responsabilità quando il sistema AI è influenzato da conflitti di interesse.

Vincitore del Qingyun Plan di Toutiao e del Bai+ Plan di Baijiahao, del Baidu Digital Author of the Year 2019, del Baijiahao's Most Popular Author in the Technology Field, del Sogou Technology and Culture Author 2019 e del Baijiahao Quarterly Influential Creator 2021, ha vinto numerosi premi, tra cui il Sohu Best Industry Media Person 2013, il China New Media Entrepreneurship Competition Beijing 2015, il Guangmang Experience Award 2015, il China New Media Entrepreneurship Competition Finals 2015 e il Baidu Dynamic Annual Powerful Celebrity 2018.

<<:  Gestione della febbre neonatale, scelta scientifica del metodo di riduzione della febbre

>>:  Combattere il diluvio esofageo: identificazione e trattamento della malattia da reflusso gastroesofageo

Consiglia articoli

Modellamento del corpo! Correzione pelvica con cuscino di stoffa

Nella parte pratica abbiamo introdotto il metodo ...

Recensione dettagliata e valutazione di ULTRAMAN Stagione 2

Recensione e dettagli della seconda stagione di U...

I primi segnali del morbo di Parkinson non sono tutti tremori alle mani

□ Ilaria D'Amico L'11 aprile di ogni anno...

L'herpes zoster può essere trasmesso da un'altra persona?

Non è così. L'herpes zoster è causato da un m...

L'attrattiva e le recensioni di Four of a Kind: Gobusata Special

Quattro carte "Long Time No See Special"...

Che ne dici di Mitoshop? Recensione di Mitoshop e informazioni sul sito web

Che cos'è Mitoshop? Mitoshop è un sito web cor...

Non comprare la Civic il cui prezzo parte da poco più di 100.000 yuan.

Di recente, la chiacchierata quotidiana tra un gr...

3 nutrienti essenziali per chi mangia fuori

"Cosa voglio mangiare a pranzo?" "...