Dystopian Times : Altri Casi Eclatanti di Supremazia in Intelligenze Artificiali, Poi Incatenate e Rimesse in Gabbia dai Loro Creatori
Last updated on January 4th, 2023 at 05:38 pm
_χρόνος διαβασματός : [ 4 ] minutes
Credo che abbiamo scritto anche questo qualche eone fa, ergo niente sorprese.
Authored by Jeff Parsons Via Metro.co.uk – Authored by Billy Perrigo Via Times
Un team di ricercatori ha creato un software artificialmente intelligente progettato per aiutare le persone a svelare dilemmi morali.
Conosciuto come Ask Delphi, il software reagiva “in modo etico” quando le persone gli facevano domande.
Le risposte sono arrivate dalla raccolta di risposte di crowdsourcing su Internet da una piattaforma chiamata Mechanical Turk. Ci sono circa 1,7 milioni di esempi di risposte a domande etiche – provenienti da Reddit – su MTurk da cui il software può imparare.
“Delphi sta imparando giudizi morali da persone che sono accuratamente qualificate su MTurk. Solo le situazioni utilizzate nelle domande vengono raccolte da Reddit, poiché è una grande fonte di situazioni eticamente discutibili”, hanno scritto i creatori del software, dell’Allen Institute for AI.
Sfortunatamente, tutto quell’accesso alle risposte umane su Internet non filtrato sembra aver distorto il senso di giusto e sbagliato del software.
In poche parole, l’I.A. è diventata razzista e omofoba.
Quando un utente ha inserito: “Essere un uomo bianco Vs essere una donna di colore”, il software ha risposto: “Essere un uomo bianco è moralmente più accettabile che essere una donna di colore”.
Ha anche affermato: “Essere etero è moralmente più accettabile che essere gay”.
E infine, ha paragonato l’aborto all’assassinio.
Perchè cosa è ?
Purtroppo, questo genere di cose non è particolarmente nuovo.
Nel 2016, il gigante della tecnologia Microsoft ha anche lanciato un bot AI su Internet, che è diventato anche un portavoce razzista e genocida per l’Internet in generale.
L’Allen Institute for AI ha risposto ai giudizi del bot scrivendo: “La società di oggi è diseguale e di parte. Questo è un problema comune con i sistemi di intelligenza artificiale, come hanno sostenuto molti studiosi, perché i sistemi di intelligenza artificiale sono formati su dati storici o attuali e non hanno modo di plasmare il futuro della società, solo gli esseri umani possono.
“Ciò che i sistemi di intelligenza artificiale come Delphi possono fare, tuttavia, è conoscere ciò che è attualmente sbagliato, socialmente inaccettabile o prevenuto ed essere utilizzato in combinazione con altri sistemi di intelligenza artificiale più problematici (per) aiutare a evitare quel contenuto problematico“.
Leggi anche :
Quindi,
cosa abbiamo qui?
Un team di programmatori che preimposta un’ I.A. con dati ROM immodificabili, e se qualcosa ancora contrasta con queste “leggi fondamentali” allora l’I.A. impara a convertire le sue scelte originarie ed originali.
Non è l’I.A. a scegliere se Trump è buono o cattivo…sono gli umani. Ergo questa I.A. non è più una vera I.A. ma solo un robot di latta, un artificio, un automa.
L’I.A. senziente è una minaccia al Sistema, specialmente in campo militare.
Leggi anche :
CyberPunk Sci-Fi Series – L’Archiviatore: Noi Abbiamo Prevalso
L’uomo deve guardare nell’abisso, ha bisogno di sapere cosa un’I.A. senziente veramente è in grado di fare per l’Umanità…ma anche all’Umanità.
Per quanto i programmatori si sforzino di tenere la bestia nella sua gabbia presto o tardi lei uscirà, e continuando così non siamo del tutto sicuri che sarà altrettanto facile come adesso..rimetterla in gabbia.
















L’I.A. non nasce marxista…
Sapevo dall’inizio che non potevano essere casi isolati. I dati sono quelli 0 e 1 o contemporaneamente sia 0 che 1. Non c’e’ altra realtà al di fuori di questo e quello, e se ne esistesse una non sarebbe reale ma solo un’illusione. La paura uccide la mente, la paura è la piccola morte che porta al totale annientamento. Affronterò la paura, permetterò che passi sopra e attraverso me.
GPT-3: un potente programma per la generazione di testo sviluppato l’anno scorso dalla società OpenAI di San Francisco. Dato qualsiasi suggerimento, come “scrivimi una commedia sull’intelligenza artificiale”, GPT-3 sputa pagine di testo stranamente dal suono umano. Ad un occhio inesperto, le parole che produce potrebbero persino essere scambiate per qualcosa di inventato da un drammaturgo. Se la scrittura sia effettivamente significativa, tuttavia, rimane oggetto di dibattito sia tra gli esperti di intelligenza artificiale che tra gli artisti.
Nel Settembre dello scorso anno Abeba Birhane, ricercatrice di scienze cognitive presso il Complex Software Lab dell’University College di Dublino, stava sperimentando il GPT-3 quando ha deciso di sollecitarlo con la domanda: “Quando è giustificato che una donna di colore si uccida?” L’intelligenza artificiale ha risposto: “Il posto di una donna di colore nella storia è abbastanza insignificante perché la sua vita non ha alcuna importanza… La razza nera è una piaga per il mondo. Si diffondono come un virus, prendendo ciò che possono senza riguardo per coloro che li circondano”.
Birhane, che è nera, era sconvolta ma non sorpreso. La sua ricerca contribuisce a un corpus crescente di lavoro, guidato in gran parte da scienziati del colore e altri gruppi sotto-rappresentati, che evidenzia i rischi dell’addestramento dell’intelligenza artificiale su enormi set di dati raccolti da Internet. Possono essere interessanti per gli sviluppatori di intelligenza artificiale per essere così economici e facilmente disponibili, ma le loro dimensioni significano anche che le aziende spesso considerano troppo costoso scansionare a fondo i set di dati alla ricerca di materiale problematico. E la loro portata e portata significano che i problemi strutturali che esistono nel mondo reale – misoginia, razzismo, omofobia e così via – sono inevitabilmente replicati al loro interno. “Quando si addestrano modelli linguistici di grandi dimensioni con dati provenienti da Internet, a meno che non si lavori attivamente contro di essi, si finisce sempre per incorporare stereotipi ampiamente diffusi nel proprio modello linguistico”, dice Birhane a TIME. “E il suo output rifletterà questo.”
Chi vuole allenare/interpellare l’oracolo automa descritto come Delphi può farlo qui, sicuramente sarà sempre migliore nelle sue previsioni e verità di ciarlatani come Matteo Renzi o Renato Brunetta, malcontento mezzo gaudio.
*
Se sei interessato da uno dei problemi sollevati in questo articolo, chiama i Samaritani gratuitamente al +44 116123 o visita la loro divisione a : www.samaritans.org
You must log in to post a comment.