Google, intelligenza artificiale non sarà usata a scopo militare

Google, intelligenza artificiale non sarà usata a scopo militare

Google, intelligenza artificiale non sarà usata a scopo militare

Il team, composto da scienziati in Germania, Francia, Regno Unito e Stati Uniti, ha utilizzato l'intelligenza artificiale per trasferire le posizioni della testa, le espressioni facciali, i movimenti degli occhi e le palpebre di una persona in un video su un'altra persona completamente diversa in un video separato. Google riconosce che l'intelligenza artificiale è in grado di affrontare i problemi seri in un modo unico ma comprende anche che sono state sollevate domande e preoccupazioni specifiche riguardanti il suo utilizzo.

Questa nuova raccolta di principi e propositi può essere considerata una sorta di risposta alle domande poste l'anno scorso da Sergey Brin nella lettera dei Fondatori di Alphabet, con cui si occupava dell'impatto dell'apprendimento automatico e dell'intelligenza artificiale, nonché dei problemi e delle aspettative che Google aveva nello sviluppo della nuova tecnologia. Al momento non possiamo ancora parlare infatti di intelligenza artificiale in senso "forte", ovvero di cervelli elettronici autocoscienti, tanto da poter impazzire, manifestando magari sintomi psicotici. Successivamente hanno sottoposto Norman al test di Rorschach. Eppure i suoi creatori non sembrano affatto preoccupati. Gli esiti del test di Rorschach hanno sottolineato le differenze fra Norman e un'altra intelligenza artificiale addestrata con immagini piacevoli e neutrali. Se non ci credete, visitate il mio sito.

Di Maio a Confcommercio: "l'Iva non aumenterà e sgravi all'energia semplificati"
Ma, cari amici, dice: "La vera salvaguardia per imprese e cittadini è difendere i loro redditi, il potere d'acquisto, la competitività diffusa delle imprese".


Ma il punto chiave è il paragrafo che parla, senza citarlo direttamente, del Progetto Maven: "Vogliamo essere chiari sul fatto che non stiamo sviluppando l'IA per le armi, ma continueremo il nostro lavoro con i governi e le forze armate in molte altre aree".

Cattivo maestro. Il software, ribattezzato Norman come Norman Bates, il celebre killer del film di Alfred Hitchcock Psycho (1960), ha studiato le didascalie di una serie di immagini postate da un sottogruppo di Reddit che documenta gli aspetti più macabri legati alla morte: per ovvie ragioni etiche, come precisato sul sito del progetto, il software è stato influenzato con i contenuti delle didascalie soltanto, e nessuna immagine di persona morente o deceduta è stata usata nell'esperimento. Così se si deve selezionare il personale di una azienda le donne potrebbero essere svantaggiate rispetto agli uomini, perché se vanno in maternità non produrrebbero come prima; mentre se affidassimo le sentenze di un tribunale americano ad un computer, molto probabilmente gli imputati di colore non se la passerebbero bene, in quanto dalle statistiche risulta che sono più soggetti ad arresti e perquisizioni da parte della polizia.

Latest News