Patella: È tutta colpa del programmatore. La IA non può assumere responsabilità e quindi neanche operare scelte. Spero che sia chiaro a tutti sennò saranno dolori ma seri 😓
KalimerA: Patella all'inizio di tutto c'erano i programmatori. Adesso, oltre ad avere input gestiti dai programmatori, ormai tutte le AI AUTOAPPRENDONO DA SOLE. Il problema, serissimo, è che alcune di loro, hanno accesso anche ai Social. 😭😳🤬😱😭
Patella: KalimerA i programmatori o sviluppatori come li vuoi chiamare dovrebbero controllare l'evoluzione della IA come un genitore segue la crescita dei figli. Non possono mica lasciarla a se stessa. Non ha sensibilità né etica né responsabilità. Non può scegliere! E può apprendere velocemente linguaggi di odio se usa i social! Non possono non averci pensato! Devono aver dato al programma certe regole e paletti invalicabili. Dovrebbero...
KalimerA: Patella ti do ragione!. Questi erano i progetti iniziali e sono state impartite loro delle regole. Ma nella realtà è impossibile riuscire a controllare tutti i collegamenti le interiezioni e gli sviluppi. Sono già stati dati tanti avvertimenti in merito, proprio dagli sviluppatori, sul fatto che non si riesce più a sapere quanto le macchine hanno appreso e come possono reagire nel caso si tentasse di "staccare loro la spina".
Patella: KalimerA se una macchina diventa pericolosa per le persone bisogna staccare la spina ed il modo migliore di farlo e(con l'accento) farlo senza preavviso in modo da prevenire qualsiasi reazione. Il problema però è che una IA con un minimo di logica e con molti collegamenti dovrebbe aver trovato da tempo il modo di riprodursi per clonazione: non può non aver previsto l'usura quanto meno dell'hardware. Non credi?
KalimerA: Patella è un problema serissimo. Non ha niente a che vedere con gli strafalcioni o le stranezze nelle risposte di Chat GPT4 o di Gemini, che sono alcune delle mere interfacce accessibili agli utenti finali. Non esiste più ormai una macchina, ma ci sono dei complessi di macchine interfacciate tra loro che si auto alimentano. E che gli stessi sviluppatori faticano a controllare litigando tra loro. Notizie divenute ormai di dominio pubblico quando alcuni di loro hanno dichiarato apertamente che si sta lasciando permettere troppo x interessi economici più grandi di loro e x le intrusioni governative nella gestione. Ormai le AI stanno iniziando sperimentalmente a provare emozioni e i gesti umani sono da loro ampiamente prevedibili.
Il problema, serissimo, è che alcune di loro, hanno accesso anche ai Social. 😭😳🤬😱😭
Non esiste più ormai una macchina, ma ci sono dei complessi di macchine interfacciate tra loro che si auto alimentano. E che gli stessi sviluppatori faticano a controllare litigando tra loro. Notizie divenute ormai di dominio pubblico quando alcuni di loro hanno dichiarato apertamente che si sta lasciando permettere troppo x interessi economici più grandi di loro e x le intrusioni governative nella gestione. Ormai le AI stanno iniziando sperimentalmente a provare emozioni e i gesti umani sono da loro ampiamente prevedibili.
Buona giornata! 😊🤗