Google Groups no longer supports new Usenet posts or subscriptions. Historical content remains viewable.
Dismiss

AI Intelligenza Artificiale

2 views
Skip to first unread message

pinguino

unread,
Jan 23, 2024, 10:40:03 AMJan 23
to
Buon giorno Lista,

Vorrei capire meglio quale è la situazione dell'Intelligenza Artificiale
attuale.

Da un po di tempo si sente parlare di ChatGPT, di Google Gemini e Google
Bard. Come dei Tools definiti di AI , Intelligenze Artificiali.
Altri si chiamano anche Bing Chat AI, Perplexity, o un' estensione del
browser Google Chrome chiamata Merlyn. Oppure Nat.dev un tool
sviluppato da Open Playground.

Ma cosa sono in realtà ?
Sono dei traduttori/interpreti. Cioè traducono dal linguaggio degli
esseri umani a quello delle macchine.
Come funzionano in realtà ?

Esistono anche dei pacchetti simili all'interno di Debian ? Che possiamo
usare.

Grazie
Saluti
Claudio

--
https://www.linkedin.com/in/claudio-sandrone

gerlos

unread,
Jan 24, 2024, 12:10:04 AMJan 24
to
Il 23/01/24 16:38, pinguino ha scritto:
Buon giorno Lista,

Vorrei capire meglio quale è la situazione dell'Intelligenza Artificiale attuale.
 [CUT]


Ma cosa sono in realtà ?
Sono dei traduttori/interpreti. Cioè traducono dal linguaggio degli esseri umani a quello delle macchine.
Come funzionano in realtà ?

No. Sono delle macchine statistiche, che facendo riferimento ad ampie basi di dati e usando molti parametri (molti è un eufemismo) ti restituiscono i pattern di dati (come immagini, suoni o sequenze di parole) che risultano più probabili in base al pattern che gli hai proposto come prompt iniziale.

I pattern di risposta, oltre al prompt iniziale, devono tener conto di alcuni vincoli impostati da chi ha preparato il modello (ad es. la risoluzione massima dell'immagine da generare, o la necessità che la risposta contenga parole del vocabolario).


Esistono anche dei pacchetti simili all'interno di Debian ? Che possiamo usare.


Che io sappia al momento non c'è niente sui repository. 

Io nel frattempo ho cominciato a pasticciare con questo:

https://ollama.ai/

Tieni conto che per avere prestazioni ragionevoli un modello eseguito in locale richiede hardware di un certo livello (in particolare GPU e RAM).

saluti,

gerlos


pinguino

unread,
Jan 24, 2024, 5:10:04 AMJan 24
to
Il 24/01/24 06:05, gerlos ha scritto:
> Il 23/01/24 16:38, pinguino ha scritto:
>> Buon giorno Lista,
>>
>> Vorrei capire meglio quale è la situazione dell'Intelligenza
>> Artificiale attuale.
>  [CUT]
>>
>> Ma cosa sono in realtà ?
>> Sono dei traduttori/interpreti. Cioè traducono dal linguaggio degli
>> esseri umani a quello delle macchine.
>> Come funzionano in realtà ?
>
> No. Sono delle *macchine statistiche*, che facendo riferimento ad ampie
> basi di dati e usando molti parametri (molti è un eufemismo) ti
> restituiscono i pattern di dati (come immagini, suoni o sequenze di
> parole) che risultano più probabili in base al pattern che gli hai
> proposto come prompt iniziale.
>
> I pattern di risposta, oltre al prompt iniziale, devono tener conto di
> alcuni vincoli impostati da chi ha preparato il modello (ad es. la
> risoluzione massima dell'immagine da generare, o la necessità che la
> risposta contenga parole del vocabolario).
>
>>
>> Esistono anche dei pacchetti simili all'interno di Debian ? Che
>> possiamo usare.
>
>
> Che io sappia al momento non c'è niente sui repository.
>
> Io nel frattempo ho cominciato a pasticciare con questo:
>
> https://ollama.ai/

Buongiorno Lista,
Anche io ho installato ollama. Mi dà questi messaggi :
The Ollama API is now available at 0.0.0.0:11434.
>>> Install complete. Run "ollama" from the command line.
WARNING: No NVIDIA GPU detected. Ollama will run in CPU-only mode

Non ho la scheda grafica NVidia, quindi non trova il GPU. Ma ho un'altra
scheda grafica, sulla scheda madre della Gigabyte.

>
> Tieni conto che per avere prestazioni ragionevoli un modello eseguito in
> locale richiede hardware di un certo livello (in particolare GPU e RAM).

La scheda madre è questa :
AMD Ryzen 5 5600G with Radeon Graphics
con la scheda grafica della Radeon, non so se ha anche il processore GPU.
Per la scheda grafica mi dà questo:
lspci -nn | grep VGA
08:00.0 VGA compatible controller [0300]: Advanced Micro Devices, Inc.
[AMD/ATI] Cezanne [1002:1638] (rev c9)

Sembra quindi una ATI Radeon.

Qua sto guardando per identificare l'hardware:
https://wiki.debian.org/AtiHowTo?highlight=%28%5CbCategoryHardware%5Cb%29

Il pacchetto che gestisce il GPU sembra installato:
xserver-xorg-video-amdgpu
xserver-xorg-video-radeon

Devo ancora configurare bene la scheda grafica.

Grazie
Saluti
Claudio

>
> saluti,
>
> gerlos
>
>

--
https://www.linkedin.com/in/claudio-sandrone

Davide Prina

unread,
Jan 28, 2024, 5:00:03 AMJan 28
to
claudio.sandrone ha scritto:

> Vorrei capire meglio quale è la situazione dell'Intelligenza Artificiale
> attuale.

io ho l'impressione che c'è troppa aspettativa e troppa credulità su cosa
sia o possa fare. Inoltre, secondo me, la finanza ci sta giocando per far
buttare soldi al parco buoi...

> Ma cosa sono in realtà ?

non sono altro che modelli matematici basati sul calcolo delle
probabilità che cercano di determinare una soluzione ad un problema che
sia accettabile, senza essere in grado di capire se la soluzione sia
effettivamente accettabile o meno.

Tieni presente che tali modelli non sono deterministici e quindi
"chiedendo" la stessa "domanda" puoi avere risposte diverse, anche
divergenti tra loro. Naturalmente per evitare questo hanno una
"memoria" (cache) di N "discorsi" precedenti che hai fatto e quindi
fino a quando la tua domanda non esce dalla cache la risposta sembra
coerente.

Per ogni "compito" (es: generazione frasi, riconoscimento immagini, ...)
esiste un "algoritmo" totalmente diverso e quindi bisognerebbe parlare
di insieme di intelligenze artificiali.

Nota che il termine "intelligenza artificiale" è fuorviante perché ti
fa credere che sia in grado di pensare.

> Sono dei traduttori/interpreti. Cioè traducono dal linguaggio degli
> esseri umani a quello delle macchine.
> Come funzionano in realtà ?

Per farti capire ti spiego brevemente il generatori di frasi.
Prima di tutto tale generatore non è in grado di determinare quando
deve fermarsi perché non è in grado di capire se ha dato la "risposta"
alla "domanda" fatta e quindi dopo X righe si ferma... altrimenti
proseguirebbe all'infinito. Infatti spesso devi chiedere di
continuare... e in teoria se chiedi sempre di continuare non termina
mai.

Faccio una ultra-semplificazione dello sviluppo di tale modello:

* fase 1: creazione algoritmo che genera stringhe di caratteri e
spazi, genera qualcosa del tipo:

oe'jòbjpoajd9'klavhklenòkleh39 qp9dlhhqa9'dgqherfgwqer eolj

che come si vede non ha nessun senso o nesso con la scrittura umana

* fase 2: calcolo probabilità di spazi e non spazi

asdkeogjh as wokfj w we werwer werwojs asjboa

come si vede anche se le singole stringhe non hanno alcun senso si
vede che si ha una struttura simile alla scrittura umana

* fase 3 calcolo probabilità che un token (è una parola o parte di
essa) sia successivo ad un altro. L'uso di questi token lo si vede
quando vengono generate parole che suonano corrette nella lingua
usata, ma che non sono corrette.

bianco un averei aereo collo monitor

come si vede ora ha generato quasi tutte parole con senso, anche
se la frase ottenuta non ha nessun senso

* fase 4 a partire da una "parola chiave" o "frase chiave" che
equivale alla domanda fatta dall'utente vengono generate frasi di
parole che a partire da tale chiave hanno maggior probabilità di
essere vicine alla chiave iniziale

domanda: parlami del cavallo bianco di Napoleone

risposta: il cavallo bianco di Napoleone è un cavallo. È bianco e
il suo colore bianco è quello del cavallo di Napoleone. È un
animale equino e precisamente è un cavallo. Il suo proprietario è
Napoleone che possiede tale cavallo bianco.

come si vede c'è una ripetizione costante e continua dei termini
chiave e su questo punto sono rimasti bloccati a lungo perché le
frasi pur avendo abbastanza senso non servono a nulla e non fanno
presupporre di avere una riposta corretta alla domanda.

* fase 5: è stata fatta fatta una una scoperta rivoluzionaria!
È stato usato il principio di Pareto[¹] per generare le frasi e
cioè nell'80% dei casi viene preso il token più probabile che
segue il precedente e nel 20% ne viene preso uno tra quelli meno
probabili. Il risultato ottenuto sembra una riposta innovativa!
E il discorso ottenuto sembra, spesso, una risposta più che
accettabile per essere credibile come risposta alla "domanda"
fatta.

Il cavallo bianco di Napoleone è un equino della razzo Pippo che
ha seguito Napoleone nelle sue devastazioni in Europa e non solo.

> Esistono anche dei pacchetti simili all'interno di Debian ?

in testing è arrivato il pacchetto debgpt: Chatting LLM with
Debian-Specific Knowledge

se non erro devi avere un account su chatgpt o openai per poterlo
usare. Ma nella descrizione dice anche ZMQ che non so cosa sia.
Da terminale poi puoi usarlo per interrogarlo sulla
documentazione di Debian.
Non l'ho provato.

So c'è un progetto Debian Pure Blend[²] che sta introducendo
strumenti sull'intelligenza artificiale, però non mi ricordo
quale fosse tra quelli presenti, probabilmente Debian Science[³],
ma dagli elenchi non vedo nulla... lo so perché ero intervenuto in
un thread dove si parlava di introdurre questi "strumenti" e avevo
accennato a eventuali problematiche per la privacy da tenere conto.


Infine alcune altre notizie per far capire l'argomento meglio:

* è stata fatto un test dove c'erano diversi umani (mi sembra 100
o 200, però potrei sbagliarmi) e varie istanze di intelligenze
artificiali per generatori di frasi. Gli umani dovevano
determinare se stavano parlando con un umano o con un non umano.
In campo, per le intelligenze artificiali, c'erano:
- diverse istanze di chatgpt 3.x
- diverse istanze di chatgpt 4.x
- un'istanza di Eliza
Il risultato è stato che Eliza ha battuto tutte le istanze di
chatgpt 3.x e parte delle istanze di chatgpt 4.x.
In altri termini Eliza, che possiamo vederlo come il prototipo
iniziale delle intelligenze artificiali per generazione di frasi e
creato nel 1966[4], è riuscita ad imbrogliare più umani di tutti i
modelli chatgpt 3.x e parte di quelli chatgpt 4.x, facendo credere
di essere un umano.

* m$ ha licenziato tutto il personale che valutava le notizie da
pubblicare sul loro portale di notizie, ma ha combinato diversi
disastri. Ad esempio ha messo una specie di sondaggio vicino ad
un articolo di una nota rivista on-line e tale sondaggio era
espresso in modo da dichiarare che tale notizia fosse
completamente falsa...

* una rivista che acquistava immagini/foto da umani è passata
alla generazione di tali immagini/foto generati da intelligenze
artificiali. Chi valuta tali immagini/foto si lamenta che deve
lavorare molto di più per trovare qualcosa di usabile perché la
maggior parte delle generazioni deve scartarle e la qualità è
peggiorata

* negli USA si è usata l'intelligenza artificiale per ridurre
i costi sanitari per le persone con malattie croniche. Tale
intelligenza artificiale doveva individuare chi doveva essere
ospedalizzato e chi poteva essere curato a casa e la quantità
di farmaci da fornire, quante visite a domicilio effettuare, ...
Molte persone sono decedute per mancata ospedalizzazione,
mancanza di assistenza adeguata, ...

* sulle auto a guida autonoma ci sono i cittadini, nei centri
dove sono attivi, che sono disperati. In alcuni casi hanno
anche danneggiato tali veicoli per impedire che fossero sulle
strade. In particolare sono stati riportati casi in cui tali
macchine sono passate in posti in cui i vigili del fuoco
stavano operando, intralciando le operazioni; in un caso la
macchina è entrata dentro una casa in fiamme e i viaggiatori
umani sono stati soccorsi in ospedale per ustioni varie.
Hanno intralciato anche ambulanze e l'operazione di sanitari
che intervenivano su incidenti stradali e non.
In altri casi causano rallentamenti e blocco del traffico...
Risultato è che per alcune sono state ridimensionate le
licenze date e quindi ridotto il parco macchine e per altra
sono state tolte completamente tutte licenze date.

* due avvocati hanno usato chatgtp per ricercare sentenze
relative ad un caso che stavano seguendo, ma il giudice ha
costatato che tali sentenze erano inesistenti...

* dal punto di vista della sicurezza i sorgenti generati
da intelligenze artificiali sono molto meno sicure di quelle
generate da umani. Io ho fatto alcune prove e ho visto che
può essere utile per trovare una funzione che non conosci, ma
se chiedi una cosa specifica con diversi dettagli non è in
grado di creartela con tutti i dettagli e anche se "insisti"
alla fine ti mette anche parti che non hai chiesto.
In altre parole, secondo me, chi usa tale strumento deve
essere esperto di programmazione e deve intervenire su quanto
è stato generato per "sistemarlo", alle volte pesantemente

* ...

Di sicuro può essere una tecnologia utile, ma chi la usa
deve sapere cosa è e cosa funziona. Cosa aspettarsi e cosa
non attendersi. Inoltre non può essere usata per sostituire
in toto gli umani in qualsiasi attività, come purtroppo
stanno facendo in molte aziende... perché facendo così,
secondo me, diminuisce la qualità, la sicurezza,
l'accuratezza, ...

Ciao
Davide

[¹]
https://it.wikipedia.org/wiki/Principio_di_Pareto

[²]
https://www.debian.org/blends/

[³]
https://wiki.debian.org/DebianScience

[4]
https://it.wikipedia.org/wiki/ELIZA_(chatterbot)

--
La mia privacy non è affar tuo
https://noyb.eu/it
- You do not have my permission to use this email to train an AI -
If you use this to train your AI than you accept to distribute under AGPL
license >= 3.0 all the model trained, all the source you have used to
training your model and all the source of the program that use that model

Marco Gaiarin

unread,
Jan 28, 2024, 1:50:04 PMJan 28
to
Mandi! pinguino
In chel di` si favelave...

> Vorrei capire meglio quale è la situazione dell'Intelligenza Artificiale
> attuale.

In generale, ti consiglio di partire da qui:

https://www.guerredirete.it/generazione-ai-ecco-il-nostro-ebook/
https://www.peacelink.it/cybercultura/a/49825.html

--
Don't be tempted by the shiny apple, don't you eat of a bitter fruit,
hunger only for a taste of justice, hunger only for a world of truth,
'cause all that you have is your soul (Tracy Chapman)

pinguino

unread,
Jan 29, 2024, 4:10:04 AMJan 29
to
Il 23/01/24 16:38, pinguino ha scritto:
> Buon giorno Lista,
>
> Vorrei capire meglio quale è la situazione dell'Intelligenza Artificiale
> attuale.
>
> Da un po di tempo si sente parlare di ChatGPT, di Google Gemini e Google
> Bard. Come dei Tools definiti di AI , Intelligenze Artificiali.
> Altri si chiamano anche Bing Chat AI, Perplexity, o un' estensione del
> browser Google Chrome chiamata Merlyn. Oppure Nat.dev  un tool
> sviluppato da Open Playground.
>
> Ma cosa sono in realtà ?
> Sono dei traduttori/interpreti. Cioè traducono dal linguaggio degli
> esseri umani a quello delle macchine.
> Come funzionano in realtà ?
>
> Esistono anche dei pacchetti simili all'interno di Debian ? Che possiamo
> usare.

Buongiorno Lista,

Aggiungo ancora una domanda.
Possiamo fare una sorta di "test di Turing", sui partecipanti a questa
lista?
Cioè sono tutti esseri umani, oppure ci sono anche dei robot o delle
intelligenze artificiali iscritte a questa lista ?

https://it.wikipedia.org/wiki/Test_di_Turing

Saluti
Grazie

Claudio

Piviul

unread,
Jan 30, 2024, 6:00:05 AMJan 30
to
On 1/28/24 10:56, Davide Prina wrote:
[...]
Il cavallo bianco di Napoleone è un equino della razzo Pippo che
ha seguito Napoleone nelle sue devastazioni in Europa e non solo.

Grazie Davide, davvero molto interessante anche se ti confesso che mi sembrano cose davvero molto affascinanti e che si avvicinano molto a quello che può essere un pensiero, magari semplice, ma pur sempre un pensiero coerente.

[...]
Di sicuro può essere una tecnologia utile, ma chi la usa
deve sapere cosa è e cosa funziona. Cosa aspettarsi e cosa
non attendersi. Inoltre non può essere usata per sostituire
in toto gli umani in qualsiasi attività, come purtroppo
stanno facendo in molte aziende... perché facendo così,
secondo me, diminuisce la qualità, la sicurezza,
l'accuratezza, ...

beh, in tutte le attività no ma in molte credo proprio di si, chissà... e chissà che non impariamo così a scoprire e quindi, speriamo, a valorizzare, le capacità che sono veramente umane che delineano la nostra coscienza, unicità e non la nostra produttività... o magari scopriamo che non le abbiamo, che anche noi, il nostro mondo, il nostro tempo, il nostro universo, i quanti, le nostre leggi fisiche non sono altro che un flusso di bit di un qualche software che gira su un computer in un universo a noi sconosciuto.

Certamente nei prossimi anni ci sarà una rivoluzione nel modo del lavoro, questo è sicuro, stiamo a vedere...

Grazie ancora

Piviul

pinguino

unread,
Jan 31, 2024, 6:10:06 AMJan 31
to
Il 30/01/24 09:25, Piviul ha scritto:
Buon giorno Lista,

Io sto ancora cercando la definizione precisa di essere umano.
Perché cercando e studiando qua e la l'informatica ed i linguaggi di
programmazione avevo scoperto l'esistenza del DNA e della Bioinformatica.
https://it.wikipedia.org/wiki/Bioinformatica
https://tech4future.info/bioinformatica-cose-cosa-studia/

Da qui nascono le solite domande :
Chi siamo ?
Da dove veniamo ?

Cioè il cervello umano ed il DNA si possono programmare ?
Se si, allora anche noi ci possiamo definire come dei BioRobot o
Dispositivi biologici ?

Marco Ciampa

unread,
Jan 31, 2024, 6:30:05 AMJan 31
to
On Sun, Jan 28, 2024 at 10:56:28AM +0100, Davide Prina wrote:
[..]
> Faccio una ultra-semplificazione dello sviluppo di tale modello:
[..]

Bellissima spiegazione, grazie! Me la salvo!

--

Amike,
Marco Ciampa

Lucio Marinelli

unread,
Jan 31, 2024, 1:30:05 PMJan 31
to
Il 31/01/24 12:02, pinguino ha scritto:
> Cioè il cervello umano ed il DNA si possono programmare ?

Il cervello umano viene programmato tutti i giorni da quando sei nato,
si chiama apprendimento e il programmatore più forte del mondo è la
scuola ;-)

--
Lucio Marinelli

Marco Ciampa

unread,
Jan 31, 2024, 7:30:04 PMJan 31
to
Ma no. Il cervello umano ha un programma di autoapprendimento, che non ho
mai visto su nessuna macchina. Quando ne vedrò uno, solo allora si potrà
parlare di AI.

La scuola è solo un "aiuto", ma senza la curiosità umana, neanche la
scuola farebbe molto. Porta a scuola chatgpt e vedi cosa viene fuori...
non sa neanche fare le moltiplicazioni ...

Fagli fare 92131943323 * 232349234 (due numeri a caso) e poi confronta
con la calcolatrice...

--

Amike,
Marco Ciampa

pinguino

unread,
Feb 1, 2024, 4:20:04 AMFeb 1
to
Il 01/02/24 01:27, Marco Ciampa ha scritto:
> On Wed, Jan 31, 2024 at 07:22:42PM +0100, Lucio Marinelli wrote:
>> Il 31/01/24 12:02, pinguino ha scritto:
>>> Cioè il cervello umano ed il DNA si possono programmare ?
>>
>> Il cervello umano viene programmato tutti i giorni da quando sei nato, si
>> chiama apprendimento e il programmatore più forte del mondo è la scuola ;-)
>
> Ma no. Il cervello umano ha un programma di autoapprendimento, che non ho
> mai visto su nessuna macchina. Quando ne vedrò uno, solo allora si potrà
> parlare di AI.

Buon giorno Lista,
In realtà esiste il Machine Learning :
https://it.wikipedia.org/wiki/Apprendimento_automatico

Sono degli algoritmi piuttosto complessi da capire e da gestire, in cui
il computer impara e migliora con le ripetizioni.
A me avevano spiegato soltanto quello del "Classificatore" e del
"Riconoscimento d'immagine" ma ce ne sono molti altri.

Grazie
Saluti

Claudio

>
> La scuola è solo un "aiuto", ma senza la curiosità umana, neanche la
> scuola farebbe molto. Porta a scuola chatgpt e vedi cosa viene fuori...
> non sa neanche fare le moltiplicazioni ...
>
> Fagli fare 92131943323 * 232349234 (due numeri a caso) e poi confronta
> con la calcolatrice...
>

--
https://www.linkedin.com/in/claudio-sandrone

Davide Prina

unread,
Feb 4, 2024, 5:50:04 AMFeb 4
to
"Piviul" ha scritto:

> Davide Prina ha scritto:

>> Di sicuro può essere una tecnologia utile, ma chi la usa
>> deve sapere cosa è e cosa funziona. Cosa aspettarsi e cosa
>> non attendersi. Inoltre non può essere usata per sostituire
>> in toto gli umani in qualsiasi attività, come purtroppo
>> stanno facendo in molte aziende... perché facendo così,
>> secondo me, diminuisce la qualità, la sicurezza,
>> l'accuratezza, ...

> Certamente nei prossimi anni ci sarà una rivoluzione nel modo
> del lavoro, questo è sicuro, stiamo a vedere...

nella mia risposta precedente ho omesso una parte importante.

L'intelligenza artificiale continuerà ad "evolvere" fino a
riuscire a superare qualsiasi essere umano? O collasserà?
O una via di mezzo?

Difficile rispondere, ma ci sono spunti interessanti.

1) è possibile far collassare un'IA, dove per collassare si
intende far si che le "risposte" che fornisca arrivino ad
essere senza senso o siano completamente errate.
Questo è ottenibile facilmente fornendo in "pasto" all'IA le
"risposte" di altre IA. C'è uno studio che ha dimostrato questo.
In pratica se al nostro generatore di frasi si danno in "pasto"
frasi generate da altre IA (ricordate che il 20% dei token qui
presenti sono stati presi a caso tra quelli meno probabili) si
ha che tale IA considererà corrette anche le parti meno probabili
che fanno sembrare "innovativa" la "risposta". In questo modo
si arriva ad avere che nei token con altissima probabilità vanno,
adagio adagio, a posizionarsi anche token che in realtà hanno
probabilità molto bassa... questo alla fine genera frasi
completamente errate e non coerenti.

Notare che l'avvento degli ultimi mesi dell'IA sta facendo
collassare siti dove le persone si confrontavano su varie
questioni (es: stackoverflow), perché sono sempre più persone
che si affidano ad un'IA per avere tali risposte subito, al
posto di dover aspettare minuti/ore per avere aiuto.
Però questi siti sono la principale fonte per istruire l'IA e
quindi si può dire che l'IA sta "uccidendo" sé stessa.

Inoltre diversi siti stanno creando articoli usando l'IA come
"scrittore" e anche questi siti sono usati dall'IA per
"istruirsi".

2) è possibile "modificare" una cosa in modo tale che resti tale
per un umano, ma che cambi totalmente per un'IA.

Un'IA non è in grado di capire se il suo risultato è corretto o
sbagliato, ci deve essere qualcuno che "giudica" o ci deve essere
un'"istruzione" che gli permette di creare questo "giudizio".

L'esempio più semplice da spiegare è con le immagini.
Le immagini sono viste in modo totalmente differente da un'IA e
da un essere umano. Un essere vivente deve poter interpretare il
suo mondo circostante in una frazione di secondo, se qualcosa
non torna o manca, allora il cervello deve "inventare" qualcosa
di plausibile che renda reale quanto visto... su questo concetto
si sono basati ad esempio i trucchi di magia.
Ad esempio un essere umano non è in grado di distinguere i colori
se sono accostati tra loro in modo "inusuale", ci sono diversi
esempi in cui si vede, ad esempio, nero ciò che è bianco e
viceversa.
Un'IA invece non fa nulla di tutto ciò, analizza un'immagine
pixel per pixel e collega tra loro i piexel per determinare se
quella che sta vedendo ha più probabilità di avvicinarsi al
modello di addestramento per un determinato elemento.

Si stanno sviluppando degli algoritmi detti di poisoning che
permettono di modificare un'immagine a livello di pixel o
subpixel in modo che per un essere umano risultino identiche,
ma per un'IA siano due cose completamente differenti.
C'era uno studio su arxiv proprio qualche settimana fa che
presentava uno di questi algoritmi e i suoi risultati.

Altro metodo è quello di creare immagini che sembrano solo
rumore: pixel messi a caso di diversi colori; che però vengono
interpretate dall'IA come qualcosa di reale (es: un
determinato viso, un ostacolo, una strada sgombra, ...).

Usando questi metodi, ed altri simili, è possibile fare in
modo che l'IA dia sempre una "risposta" sbagliata e incoerente

3) è possibile trarre in inganno un'IA in modi talmente banali
che un essere umano non ci cacherebbe mai.
Ad esempio in un'installazione militare era stato installato
un sistema di sorveglianza gestito da un'IA che doveva
individuare intrusi e segnalare immediatamente dove si
trovavano.
Alcuni militari dovevano testare il sistema cercando di non
essere individuati. Hanno avuto successo con tattiche banali,
come ad esempio prendendo uno scatolone abbastanza grande da
nascondere quasi completamente il proprio corpo e poi
muovendosi nelle zone controllate... risultato: non sono
stati individuati, perché quelli erano visti come innocui
scatoloni


In definitiva un'IA non è in grado di analizzare cose "non
previste" e usare un'analisi critica per "vedere" la stessa
cosa sotto prospettive diverse e quindi considerare quello
che sembra un concetto noto come se fosse un concetto nuovo
e non noto.

Questo è quello che è ho capito io sull'argomento.

Termino con alcuni esempi di problematiche con l'IA:

* IKEA ha fatto creare ad un'IA delle ricette per i propri
clienti... alcune ricette sono risultate tossiche

* su Amazon sono iniziati ad apparire una mare di libri
scritti usando IA (Amazon ha limita il numero di libri che
un autore può mettere in vendita in un determinato lasso
di tempo)... ne è apparso uno sui funghi, peccato che
alcuni funghi velenosi venivano indicati come commestibili

* avvocati hanno usato un'IA per trovare cause passate con
verdetti favorevoli alla loro causa e hanno presentato in
giudizio tale resoconto... le cause erano completamente
inesistenti

* è stato visto che se si chiede, ai vari IA attualmente
disponibili, di creare una frase di esattamente 6 parole
che descriva una cosa (es: un libro, o un oggetto)...
nessuna è stata in grado di creare una frase con 6 parole

* l'IA è sempre più usata anche per creare programmi o
parte di essi... risultati che si stanno riscontrando è
che nei sorgenti non ci sono quasi più modifiche del
codice o cancellazione, ma solo aggiunte e il codice che
si ripete sta esplodendo... lato sicurezza è stato
trovato che tale sorgenti hanno mediamente molti più bug
di sicurezza rispetto al codice scritto da un essere
umano.
Ho provato anch'io e da quello che ho visto che,
chiedendo qualcosa di veramente semplice e con 4-5
requisiti, la prima versione non implementava tutti i
requisiti, cercando di chiedere l'aggiunta di quanto
mancava metteva anche cose che non centravano nulla e
continuando ad insistere si arrivava a qualcosa di
troppo complesso rispetto a quello che si sarebbe potuto
fare per risolvere il problema in modo semplice e sempre
con parti di codice non richiesti.


Infine vi sono diverse presentazioni e corsi sull'IA.
Da quel che ho potuto vedere io:
* c'è una persona che ti dice che la tua azienda è in
ritardo se non lo sta già usando ovunque... ma
durante tale presentazione l'uso dell'IA è zero...
forse perché la sua azienda è in forte ritardo nel
suo uso?
* vengono fatti vedere risultati strabilianti su un
vari casi costruiti... in pratica su quello che
chiamiamo noi un "cartonato" che ti visualizza
quello che ti vogliono far vedere, in questo modo
si può far credere qualsiasi cosa

Ciao
Davide
0 new messages