• Non sono ammesse registrazioni con indirizzi email temporanei usa e getta

AI Chatbot: ChatGTP di OpenAI e alternative

Non mi fiderei troppo di questa 'intelligenza artificiale'

mi occorrerebbe l'intervista intera. per capire tutto il contesto. intanto nei momenti di congestione...una risposta di un chatbot invece del segnale di attesa sicuramente non potrà fare male. perchè conoscendo una persona che lavora proprio al 112 durante una "piccola emergenza" come una rissa dove si lanciano oggetti, c'è tutta una sequela di telefonate utili solo a congestionare i soccorsi, ben inteso che molte si capiscono dal "pronto" ma comunque qualche secondo lo perdi. quindi un filtro iniziale può essere utile e in certi momenti pure una chiamata silenziosa/messaggio potrebbe essere + utile della chiamata vecchio stile. e anche qualcosa che gestisca il fatto di "esserne già a conoscenza e di suggerire delle manovre basiche di messa in sicurezza" è molto importante per sbloccare il panico xkè qualcuno si fossilizza sul chiamare soccorso invece di scappare e mettersi in salvo. una cena con questa persona è molto divertente e diventa tragicomica...io non so come faccia a dormire la notte ma tant'è:eusa_shifty:
 
Allora ragazzi io non mitizzerei troppo qualunque applicazione di intelligenza artificiale. L'intelligenza artificiale è codificata dall'uomo pensante ed è in grado di analizzare molto velocemente, molto più dell'uomo grazie ai computer, i casi che ci aiutano a risolvere un problema. Una applicazione di intelligenza artificiale è fatta da algoritmi precisi, ovvero delle procedure logiche, che analizzano i casi che sono stati codificati dall'uomo per risolvere un problema o anche per dimostrare qualcosa in sola apparenza ... cioè anche una truffa. Un algoritmo procedurale non è in grado di fare una "inferenza", cioè una "Deduzione intesa a provare o sottolineare una conseguenza logica" questo è il vero limite dell'intelligenza artificiale ed è invalicalibile senza ottenere errori logici che portano a prendere delle decisioni sbagliate. Ci sono alcune applicazioni positive da tempo nel campo dell'intelligenza artificiale. Alcuni esempi, che non sono certo gli unici:

https://azure.microsoft.com/it-it/r...ctionary/what-is-artificial-intelligence/#how
 
Allora ragazzi io non mitizzerei troppo qualunque applicazione di intelligenza artificiale. L'intelligenza artificiale è codificata dall'uomo pensante ed è in grado di analizzare molto velocemente, molto più dell'uomo grazie ai computer, i casi che ci aiutano a risolvere un problema. Una applicazione di intelligenza artificiale è fatta da algoritmi precisi, ovvero delle procedure logiche, che analizzano i casi che sono stati codificati dall'uomo per risolvere un problema o anche per dimostrare qualcosa in sola apparenza ... cioè anche una truffa. Un algoritmo procedurale non è in grado di fare una "inferenza", cioè una "Deduzione intesa a provare o sottolineare una conseguenza logica" questo è il vero limite dell'intelligenza artificiale ed è invalicalibile senza ottenere errori logici che portano a prendere delle decisioni sbagliate. Ci sono alcune applicazioni positive da tempo nel campo dell'intelligenza artificiale. Alcuni esempi, che non sono certo gli unici:

https://azure.microsoft.com/it-it/r...ctionary/what-is-artificial-intelligence/#how

Il fatto è che le intelligenze artificiali basate su reti neurali non sono algoritmi classici che eseguono istruzioni logiche, bensì delle architetture che funzionano in modo completamente diverso.

In pratica si crea un "cervello" ispirandosi a quelli biologici, per poi insegnargli a fare un certo lavoro tramite addestramento, cioè facendogli vedere degli esempi di quello che deve fare (training set).
In base alla dimensione della rete, al numero degli esempi e a quanto sono diversificati, il sistema dovrebbe capire come portare a termine il compito che gli stiamo insegnando.
Alla fine dell'addestramento si possono fornire alla rete ulteriori esempi non presenti nel training set per vedere se riesce a rispondere correttamente.

Poi è vero che il tutto è simulato su computer, ma in realtà, ad oggi, nemmeno gli sviluppatori riescono a prevedere come una rete funzionerà una volta addestrata.
Inoltre non si riesce nemmeno a correggerla nel caso non funzionasse come sperato, anche se si sta facendo molta ricerca anche in questa direzione.

Per quanto mi riguarda, all'università studiai le reti neurali quando la capacità di calcolo dei computer mi permetteva di simulare poche decine di neuroni e con training set ridottissimi (erano reti che addestravo per riconoscere immagini e ne potevo fornire giusto qualche dozzina).
Per l'addestramento dovevo comunque lasciare il computer a calcolare per ore e ore.

Oggi, per ChatGPT 4 si parla di migliaia di miliardi di neuroni e come training set praticamente mezza internet.

Per chi fosse interessato, linko un video di Mikko Hypponen al convegno Sphere dello scorso maggio in cui parla proprio delle possibilità e dei pericoli delle AI: https://www.youtube.com/watch?v=2i1QqCZKtqA
 
Ultima modifica:
Grazie ataru1976 per l'ottimo commento. Comunque nella realtà delle cose tra il dire ed il fare c'è ... Per "dire" intendo proprio, come nell'esempio che hai fatto tu, i convegni e per il "fare" intendo la realtà della capacità logica di elaborazione. Che sarà sempre una elaborazione logica e non una inferenza. I tentativi saranno molti per uscire dall'elaborazione logica senza il controllo umano ed alcuni, purtroppo, potranno portare anche conseguenze negative. Pensa solo agli errori del passato nel campo militare che per fortuna sono stati rimediabili con il controllo umano. In molti potranno pensare che il passare dall'elaborazione logica al fare delle inferenze senza il controllo umano sia possibile per accettare la soluzione al problema affrontato ... io penso di no, a meno di accettare l'errore e pagarne le conseguenze. E' un ragionamento anche filosofico, purtroppo esistono già esseri umani al mondo che hanno potere senza un controllo. Prendiamo il buono dell'intelligenza artificiale e rendiamo solidi i risultati certi ed i campi di applicazione sicuri. Altrimenti si ritorna ad una vecchia battuata degli anni passati: l'intelligenza artificiale ha il pieno controllo sull'uomo quando manca quella naturale. :)
 
Grazie ataru1976 per l'ottimo commento. Comunque nella realtà delle cose tra il dire ed il fare c'è ... Per "dire" intendo proprio, come nell'esempio che hai fatto tu, i convegni e per il "fare" intendo la realtà della capacità logica di elaborazione. Che sarà sempre una elaborazione logica e non una inferenza. I tentativi saranno molti per uscire dall'elaborazione logica senza il controllo umano ed alcuni, purtroppo, potranno portare anche conseguenze negative. Pensa solo agli errori del passato nel campo militare che per fortuna sono stati rimediabili con il controllo umano. In molti potranno pensare che il passare dall'elaborazione logica al fare delle inferenze senza il controllo umano sia possibile per accettare la soluzione al problema affrontato ... io penso di no, a meno di accettare l'errore e pagarne le conseguenze. E' un ragionamento anche filosofico, purtroppo esistono già esseri umani al mondo che hanno potere senza un controllo. Prendiamo il buono dell'intelligenza artificiale e rendiamo solidi i risultati certi ed i campi di applicazione sicuri. Altrimenti si ritorna ad una vecchia battuata degli anni passati: l'intelligenza artificiale ha il pieno controllo sull'uomo quando manca quella naturale. :)

Con le reti neurali si sa perfettamente che il risultato sarà sempre affetto da errore, infatti l'addestramento stesso è un calcolo che cerca di minimizzarlo (l'algoritmo di addestramento che usavo io ormai 20 anni fa si chiama proprio back error propagation o backpropagation).

E no, dopo l'addestramento non c'è nessun algoritmo logico che viene eseguito. Le reti neurali sono infatti direttamente implementabili su chip.

Per questo ho linkato l'intervento di Mikko Hypponen (che è un esperto di sicurezza informatica).
Lui ha portato esempi reali di quello che le reti attualmente in circolazione sanno fare e si limita a notare che queste tecnologie potrebbero diventare incontrollabili molto in fretta proprio perché non siamo in grado di controllarle già ora.
 
Ultima modifica:
No ? Non c'è nessun algoritmo logico che viene eseguito ? Semmai non c'è nessun algoritmo logico che deve essere implementato perchè l'agoritmo logico sul singolo "nodo" c'è ma è a carattere generale. Da qui la lentezza nell'elaborazione: non si affrona un problema solo da risolvere ma un problema a carattere generale. Come è che funziona in pratica allora ? La capacità decisionale è sempre realizzata mediante un algoritmo anche su un nodo di una rete neuronale. Infatti tu parli di addestramento e non di programmazione per realizzare un processo, ma la sostanza è sempre quella ... fornisci degli input al sistema ed il sistema li elabora e memorizza e questo ad alto livello chiama imparare a seguito di un addestramento. Ci sono vari livelli di astrazione, tu mi sembra che vedi il problema più dall'alto del livello di astrazione ed io più dal basso. Il vero problema dell'intelligenza artificiale non cambia però: è quello della capacità di inferenza senza il controllo umano.

@luctun
Hai forse volutamente fatto una battuta ?

Incidente dell'equinozio d'autunno

Bisogna saper leggere indietro nel tempo per guardare avanti senza troppi intoppi. All'epoca non c'era l'intelligenza artificiale ma non crediate che con le nuove tecnologie non si ripresenti un caso simile.

Per me l'essere umano deve obbligatoriamente avere il controllo sulla macchina e qualunque decisione importante deve essere soppesata dall'uomo Questo è vero il limite che dovremo affrontare e non è così semplice da affrontare come può apparire. Con le reti neuronali si cercano di simulare i nodi ed il comportamento ipotetico del cervello umano. Sono degli algoritmi logici che governano un nodo, non è nulla di straordinario. Un problema è la capacità di elaborazione e la velocità che è richiesta per ottenere il risultato. Un aiuto il tal senso verrà o potrebbe venire utilizzando i computer quantistici.

https://www.cnr.it/it/comunicato-stampa/10027/l-intelligenza-artificiale-diventa-quantistica

Raggiunta la capacità di elaborazione richiesta dovremmo affrontare il problema del controllo umano sulla macchina, perché di macchina sempre parleremo, ovvero il controllo sulle inferenze possibili.
 
Ultima modifica:
Intendevo dire che sono gli uomini a scatenare le guerre, ed è per questo che sono il problema. Una semplice amara considerazione sulla stupidità del genere umano
 
No ? Non c'è nessun algoritmo logico che viene eseguito ? Semmai non c'è nessun algoritmo logico che deve essere implementato perchè l'agoritmo logico sul singolo "nodo" c'è ma è a carattere generale. Da qui la lentezza nell'elaborazione: non si affrona un problema solo da risolvere ma un problema a carattere generale. Come è che funziona in pratica allora ? La capacità decisionale è sempre realizzata mediante un algoritmo anche su un nodo di una rete neuronale. Infatti tu parli di addestramento e non di programmazione per realizzare un processo, ma la sostanza è sempre quella ... fornisci degli input al sistema ed il sistema li elabora e memorizza e questo ad alto livello chiama imparare a seguito di un addestramento. Ci sono vari livelli di astrazione, tu mi sembra che vedi il problema più dall'alto del livello di astrazione ed io più dal basso. Il vero problema dell'intelligenza artificiale non cambia però: è quello della capacità di inferenza senza il controllo umano.

Solitamente nel singolo nodo (neurone) non c'è un algoritmo a carattere generale ma una semplice funzione di trasferimento, che può essere banalmente f(x)=x o una funzione soglia.
I neuroni sono collegati tra loro con un peso (in pratica, l'output di un neurone viene moltiplicato per un certo numero prima di essere passato al neurone successivo).
Quindi il calcolo non è lento, è la semplice somma pesata delle f(x) dei neuroni, solo che ci sono miliardi di pesi da moltiplicare (somma pesata, quindi nessuna logica, solo un calcolo molto lungo).

Ad essere lento è l'algoritmo (questo sì) di addestramento, che si occupa proprio di calcolare i pesi.
E il suo funzionamento non è nemmeno troppo complicato:
una volta costruita la rete prendo un esempio noto e calcolo tutti i miliardi di pesi in modo che l'output sia il più vicino possibile a quello esatto, poi ne prendo un altro e aggiusto i pesi in modo che entrambi i risultati siano entro un certo margine di errore e così via per tutti gli esempi che ho.
Va da sé che, se ripropongo uno degli esempi usati in fase di addestramento, il risultato sarà entro i margini di errore previsti (per forza, ho calcolato i pesi proprio per questo!).

Ma succede anche che, fornendo un input mai presentato prima alla rete, si ottenga un risultato abbastanza vicino a quello corretto (magari stavolta l'errore sarà un po' maggiore perché i pesi non sono stati calcolati per funzionare anche in quel caso).

Per chi fosse interessato, qui c'è una trattazione abbastanza rigorosa della matematica che sta dietro l'algoritmo che usavo io venti anni fa: https://en.wikipedia.org/wiki/Backpropagation
Ora si usano algoritmi più sofisticati adatti alle architetture moderne, perché il backpropagation ha diversi limiti abbastanza fastidiosi, ma il principio di funzionamento delle reti neurali è più o meno sempre questo da decenni.

Sono d'accordo però sul fatto che la rete acquisisce una capacità di inferenza senza intervento umano. Il problema è che si tratta di inferenza probabilistica, cioè dalla somma pesata esce fuori una probabilità.
Vedendo il problema a basso livello, la rete è semplicemente una matrice di miliardi di numeri che fanno da pesi per i collegamenti dei neuroni e proprio qui sta il problema: non siamo assolutamente in grado di sapere quali numeri modificare e come per correggere la rete.
In caso di errori oltre una certa soglia hai due strade: buttare la rete e ricominciare da capo oppure continuare l'addestramento sperando che si aggiusti.
 
il problema è che nelle posizione decisionali ci schiaffiamo sempre gente + incompetente che non ha lungimiranza e non quantifica nè qualifica le conseguenze quindi se l'algoritmo suggerisce di attaccare...si attacca!

se per far quadrare un conto si deve tagliare le ore di lavoro a tizio e caio...si tagliano! che ci frega se tizio e caio in quelle ore che sono state tagliate facevano un controllo del sistema di sicurezza e tale controllo poteva essere fatto solo in quelle tre ore?

hanno tolto di mezzo "gli stradini" e i cantonieri xkè "non servivano" e infatti ogni pioggia è un alluvione xkè non si regimano neanche + i condotti delle acque bianche esistenti se non dopo catastrofi.
per un mini acquazzone di neanche un'ora ho trovato l'acqua in casa dopo aver passato 2 alluvioni invernali completamente indenne a causa del mancato taglio di erba a bordo strada 200 metri + in alto della mia abitazione in pratica tutta l'acqua non ha potuto dirottare come sempre verso i campi e lo scolo...e è entrata tutta in casa.
 
TUTTO CIÒ CHE PUBBLICHERETE ONLINE SARÀ USATO DA GOOGLE PER ADDESTRARE LA PROPRIA IA

Importante aggiornamento per la politica sulla privacy di Google. Come notato dai colleghi di Gizmodo, nel weekend il gigante del web ha aggiornato la policy affermando esplicitamente che la società si riserva il diritto di*utilizzare tutti i dati pubblicamente accessibili online per addestrare i propri tool d’IA.

https://tech.everyeye.it/notizie/pu...pHRjlw9ASR3TzhwgSx6nhFpws0#Echobox=1688468689
 
TUTTO CIÒ CHE PUBBLICHERETE ONLINE SARÀ USATO DA GOOGLE PER ADDESTRARE LA PROPRIA IA

Importante aggiornamento per la politica sulla privacy di Google. Come notato dai colleghi di Gizmodo, nel weekend il gigante del web ha aggiornato la policy affermando esplicitamente che la società si riserva il diritto di*utilizzare tutti i dati pubblicamente accessibili online per addestrare i propri tool d’IA.

https://tech.everyeye.it/notizie/pu...pHRjlw9ASR3TzhwgSx6nhFpws0#Echobox=1688468689

da vedere la "reale differenza rispetto a prima" anche xkè almeno in europa vige il GDPR che è molto + restrittivo(se così si può dire) rispetto alle politiche americane. insomma il "solito" articolo evereye
 
Chat GPT crolla l’ hype

Confermati i dati secondo i quali a giugno il traffico si è ridotto del (- 9,7% )e i visitatori unici ( -5,7%)
Non solo, anche la quantità di tempo trascorsa è scesa ( -8,5%)

In pratica quasi 6 persone su 100 non usano più la piattaforma.
 
Io sono tra quelli che hanno abbandonato, in due mesi l’ho usata pochissimo e per delle banalità, i miei figli non l’hanno nemmeno provata
Vedremo in futuro
 
Credo sia normale, ormai chi l'ha provato avrà capito se può servirgli oppure no.
In realtà avrei scommesso su percentuali più alte di abbandono, invece siamo sotto al 10%.
Per quanto mi riguarda lo sto usando da un po', sia per testarlo sia per lavoro e ogni tanto riesce a stupirmi per i "ragionamenti" che riesce a fare.
E io sto usando ancora la versione free, ChatGPT 4 dovrebbe essere molto più potente, da quanto ho sentito.
 
Indietro
Alto Basso