Quando l’IA non è A: la beffa miliardaria di Builder.ai
Una delle aziende più in vista nel settore dell’intelligenza artificiale, valutata più di un miliardo di dollari, ha fatto istanza di bancarotta perché accusata di gravi irregolarità contabili e di aver fatto solo finta di usare l’IA, che in realtà era costituita da qualche centinaio di sviluppatori in carne e ossa in India. Non è l’unico caso nel settore: la “finta IA” è diventata uno strumento di marketing molto diffuso. E nel Regno Unito l’Alta Corte lancia un monito agli avvocati e ai professionisti del settore legale: smettete di usare ChatGPT e simili come fonti per le ricerche di precedenti legali.
--------
12:55
Avvocati, giornalisti e governanti collezionano figuracce con l’IA
Avvocati che portano in tribunale precedenti inesistenti, giornali e riviste che pubblicano notizie inventate, e governi che fondano la propria politica sanitaria su documenti contenenti fonti scientifiche che non esistono, e continuano a farlo nonostante le segnalazioni e le sanzioni. Le conseguenze di un uso maldestro dell’intelligenza artificiale sono pesanti e pericolose, eppure professionisti e governanti sembrano incapaci di imparare dagli sbagli sempre più diffusi dei colleghi. Una carrellata di questi disastri informatici può forse aiutare a diffondere il concetto che le IA sono inaffidabili?
--------
13:36
Il cripto-ladro è nella stampante e ruba un milione di dollari
Si può infettare un computer attraverso la sua stampante, e qualcuno lo ha fatto, intascandosi un milione di dollari in criptovalute. La cronaca di un attacco informatico un po’ particolare getta luce su come operano il mondo del crimine informatico e quello contrapposto della difesa informatica, e illustra bene il fatto che non bisogna mai imparare la sicurezza informatica guardando i film di James Bond.
--------
12:38
Usare l’IA come terapista è “tendenza pericolosa” secondo gli esperti
È in rapida crescita il numero di persone che usano ChatGPT, Character.ai, Claude e altre intelligenze artificiali come strumenti di terapia o supporto psicologico, chattando con questi software a proposito dei propri problemi. È un approccio terapeutico discreto, privato, immediato e poco costoso, ma ci sono rischi di privacy molto elevati e i consigli dispensati da queste IA vanno contro le raccomandazioni degli esperti. La principale organizzazione mondiale di psicologi ha lanciato un appello alle persone, citando esempi anche letali di uso di questi software e mettendo in guardia contro l‘eccesso di fiducia in questa tecnologia. E un’inchiesta ha scoperto che i chatbot terapisti online mentono senza ritegno ai loro pazienti, spacciandosi per persone reali e inventandosi i titoli di studio.
--------
16:47
WhatsApp, gruppi a rischio intercettazione nonostante la crittografia
Un‘analisi tecnica dettagliatissima di due università britanniche mostra che WhatsApp è effettivamente molto sicura per le conversazioni tra due persone, ma rivela anche che le chat di gruppo non sono altrettanto ben protette contro le intrusioni e gli ascolti indesiderati, nonostante la crittografia “end to end” che WhatsApp mette sempre in evidenza. Un confronto con le altre app di messaggistica rivela pro e contro di ciascuna e spiega come evitare o almeno contenere l’insicurezza segnalata dai ricercatori.
Colui che mette luce laddove internet e l'informatica tutta ci sembrano assolutamente troppo complicati, semplicemente elargendo consigli, avvisi e trucchi per vivere indenni i rischi del web. Bufale della rete, truffe e virus... non ci sono segreti per il Disinformatico! Lo storico appuntamento con Paolo Attivissimo, il nostro Disinformatico di fiducia dal 2006, continua a trovare spazio in questo podcast. Ogni argomento affrontato è sviscerato anche in un articolo dedicato, che potete leggere sul blog di Attivissimo.