HomeNotizieL'editore di Hello Neighbor delinea il preoccupante futuro del monitoraggio dei dipendenti...

L’editore di Hello Neighbor delinea il preoccupante futuro del monitoraggio dei dipendenti nel keynote sull’AI

Se cliccate su un link ed effettuate un acquisto, potremmo ricevere una piccola commissione. Leggi la nostra politica editoriale.

Ma il discorso degli insulti era solo “ipotetico”.

Crediti immagine: TinyBuild

Alex Nichiporchik, amministratore delegato di TinyBuild, società editrice di Hello Neighbor, ha sollevato delle perplessità durante un keynote in cui ha delineato i potenziali utilizzi degli strumenti di intelligenza artificiale sul posto di lavoro, tra cui il monitoraggio dei messaggi Slack dei dipendenti e la trascrizione delle riunioni per aiutare a identificare “potenziali soggetti problematici” – una discussione che ha poi ribadito essere “ipotetica”.

Nichiporchik (come segnalato da WhyNowGaming) è intervenuto alla conferenza Develop: Brighton, in un intervento intitolato “AI in Gamedev: Is My Job Safe?” che prometteva un “approfondimento [look] su come [TinyBuild] adottato l’IA nelle pratiche quotidiane per aumentare esponenzialmente l’efficienza”.

Una parte della presentazione in particolare, incentrata su “AI per le risorse umane”, si è rivelata particolarmente controversa da quando la notizia del suo contenuto ha iniziato a diffondersi su Internet. Qui, Nichiporchik ha discusso di come l’IA potrebbe essere utilizzata dalle risorse umane per individuare il burnout (in seguito descritto come sinonimo di “tossicità”) tra i dipendenti, identificando innanzitutto i “potenziali membri problematici del team”, quindi raccogliendo e analizzando i loro messaggi Slack e le trascrizioni automatiche da Google Meet e Zoom attraverso Chat GPT, in un processo che definisce “I, Me Analysis”.

Notiziario: L’acquisizione di Activision Blizzard da parte di Microsoft è ormai cosa fatta?Guarda su YouTube

“Esiste una correlazione diretta tra il numero di volte in cui qualcuno usa ‘io’ o ‘me’ in una riunione”, ha affermato Nichiporchik, “rispetto alla quantità di parole che usa in generale, e la probabilità che la persona vada in burnout”

Secondo Nichiporchik, identificando i dipendenti che “parlano troppo di se stessi”, che “succhiano troppo tempo nelle riunioni” in modo che “non venga fatto nulla” e che ricevono un feedback negativo nelle valutazioni inter pares a 360 gradi, è possibile “identificare qualcuno che è sul punto di esaurirsi, che potrebbe essere il motivo per cui i colleghi che lavorano con quella persona si stanno esaurendo, e si potrebbe essere in grado di identificarlo e risolverlo in anticipo”

È qui che l’esatta portata della visione un po’ distopica di Nichiporchik inizia a non essere chiara. WhyNowGaming riporta che l’amministratore delegato ha dichiarato che TinyBuild ha sperimentato la tecnologia in modo retroattivo sui lavoratori che hanno già lasciato l’azienda e ora sta iniziando a usarla in modo proattivo, evidenziando un “primo caso la scorsa settimana, in cui un capo studio non era in una buona posizione, e nessuno ce lo ha detto. Se avessimo aspettato un mese, probabilmente non avremmo avuto uno studio”

In una dichiarazione fornita successivamente al sito web, tuttavia, Nichiporchik contraddice il resoconto di WhyNowGaming, insistendo sul fatto che “la parte relativa alle risorse umane della mia presentazione era ipotetica, da cui il riferimento a Black Mirror” e che TinyBuild “non monitora i dipendenti né utilizza l’intelligenza artificiale per identificare quelli problematici”

“Avrei potuto essere più chiaro per chi guarda fuori dal contesto”, ha detto Nichiporchik in una dichiarazione fornita alla pubblicazione dopo il suo rapporto. “Non monitoriamo i dipendenti né utilizziamo l’IA per identificare quelli problematici. La presentazione ha esplorato il modo in cui gli strumenti di IA possono essere utilizzati, e alcuni di essi si spingono in un territorio inquietante. Ho voluto esplorare come possono essere usati a fin di bene”

La conclusione, tuttavia, sembra essere piuttosto semplice. A prescindere dalle intenzioni di Nichiporchik e dalle pratiche interne di TinyBuild, ci saranno senza dubbio altri amministratori delegati che prenderanno in considerazione l’uso dell’IA in modi almeno altrettanto nefasti. L’IA è un argomento molto caldo in questo momento e, come scrive Chris Tapsell di GamingPark ha recentemente scoperto, è un problema che gli operatori dell’industria dei videogiochi, in tutte le discipline, non condividono, ma è chiaro che non si tratta di un problema destinato a scomparire.

Per saperne di più

RELATED ARTICLES

Commenta!

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.