banner
Centro notizie
Follow-up affidabile dopo la vendita

L'impatto di ChatGPT sulla forza lavoro federale

Dec 13, 2023

Le agenzie federali sono costantemente alla ricerca di soluzioni innovative e sicure per migliorare le loro operazioni e servire meglio i loro elettori. Una delle tecnologie che ha attirato la loro attenzione negli ultimi dieci anni è l’intelligenza artificiale.

Con la recente spinta del Large Language Model e del Transformer AI, la forza lavoro federale è rimasta affascinata dal potenziale dell’intelligenza artificiale e da come può consentire loro di svolgere efficacemente le missioni dell’agenzia.

Uno strumento LLM popolare è ChatGPT. I legislatori stanno già utilizzando ChatGPT per scrivere discorsi e le agenzie hanno iniziato a indagare sugli innumerevoli altri vantaggi derivanti dall'implementazione della tecnologia all'interno dei processi esistenti, tra cui l'assistenza ai dipendenti nella comunicazione, la semplificazione dei flussi di lavoro e l'aumento dell'accesso dei dipendenti alle informazioni.

In mezzo all’entusiasmo, si teme che ChatGPT e altri strumenti LLM possano eliminare posti di lavoro, fornire informazioni imprecise e perpetuare pregiudizi. Sebbene alcuni timori possano essere infondati, è fondamentale che le agenzie federali considerino tutti i potenziali impatti che un’implementazione su vasta scala di ChatGPT potrebbe avere sulla forza lavoro e sulle parti interessate dell’agenzia.

Per fare ciò è necessaria una comprensione approfondita di dove ChatGPT può aiutare la forza lavoro federale e, cosa più importante, dove non può.

Tradizionalmente, l’intelligenza artificiale assiste i dipendenti pubblici nei processi interni aiutando nei service desk, semplificando le decisioni, automatizzando le attività ripetitive e altro ancora. Sebbene ChatGPT possa svolgere questi ruoli tradizionali, il suo ampio modello linguistico consente anche una nuova dimensione di funzionalità.

La tecnologia può fornire alla forza lavoro federale migliori opportunità di formazione e sviluppo professionale creando corsi online, tutorial e altre risorse educative a cui i dipendenti federali possono accedere in qualsiasi momento. In alternativa, potrebbe migliorare l’accesso dei dipendenti alle informazioni su politiche, procedure, regolamenti e dati e statistiche rilevanti per il lavoro.

ChatGPT ha anche il potenziale per aiutare a risolvere sfide ben documentate a livello governativo. Ad esempio, può aiutare a semplificare il complesso processo di acquisizione federale redigendo un contratto governativo che i dipendenti possono modificare invece di creare da zero. Le potenziali applicazioni non sono sfuggite alle agenzie, poiché il Dipartimento della Difesa è già in procinto di creare una soluzione simile per la scrittura di contratti basata sull’intelligenza artificiale nota come “AcqBot” per accelerare i flussi di lavoro.

Inoltre, le applicazioni di ChatGPT possono essere facilmente adattate alle esigenze specifiche dell'agenzia. L'IRS potrebbe utilizzare ChatGPT per automatizzare il processo di classificazione dei moduli fiscali in entrata e instradarli al dipartimento appropriato per l'elaborazione, mentre il DoD potrebbe utilizzarlo per generare automaticamente report sulla manutenzione delle apparecchiature, semplificando la pianificazione delle riparazioni.

Le applicazioni di ChatGPT sono limitate solo dall'immaginazione, dalla creatività e dal livello di impatto desiderato. Tuttavia, gli effetti non sono tutti positivi e fare troppo affidamento su ChatGPT può comportare rischi significativi per un’organizzazione priva dei guardrail adeguati. Ad esempio, i membri certificati della comunità di hacking etico hanno dimostrato modi per effettuare il jailbreak di numerosi strumenti basati su LLM e Transformer come ChatGPT e indurli a inserire pregiudizi nelle risposte, violare le politiche etiche, creare codice per attacchi Denial-of-Service distribuiti e altro ancora.

ChatGPT può anche occasionalmente fornire risposte o estrarre informazioni da fonti che non esistono per fornire una risposta tempestiva. Ciò accade perché ChatGPT utilizza ipotesi basate sulla probabilità basate sulle informazioni disponibili per generare le sue risposte.

Pertanto, sebbene i dati originali da cui estrae possano essere accurati, comprimerli e adattarli per rispondere a una richiesta unica può generare l'affermazione più probabile invece che accurata, risultando, a volte, in fonti interamente inventate. In caso di errore, non riconoscerà il proprio errore ma riaffermerà la sua risposta. Ciò potrebbe portare a potenziali interpretazioni errate da parte dei dipendenti federali che si affidano allo strumento per ottenere informazioni sui benefici o errori di formattazione nei contratti redatti utilizzando lo strumento.