Da utenti a creatori

La proliferazione delle foto e dei video generati da AI sta divertendo tutti noi, e molte questioni si pongono, al di là del divertimento che proviamo.

Al primo punto c’è naturalmente la preoccupazione sulla riconoscibilità di questi artefatti. E’ una questione di grande rilevanza, perchè la diffusione di foto o video generati da AI è funzionale alla disinformazione, condotta da attori statali o proxy. La disinformazione sul web utilizza oggi ampiamente questi strumenti, e ne abbiamo esempi ogni giorno. Il tema è tanto importante che la regolamentazione europea sull’AI (AI Act) lo ha regolamentato, nell’Art. 50 sulla Trasparenza. Purtroppo questa normativa vale solo per i cittadini dell’Unione, anche se molti altri paesi stanno seguendo il nostro esempio.

Una delle più famose immagini Fake create con AI

Lasciando da parte questa questione, che impatta su temi di carattere normativo e sociale, il tema che interessa noi produttori di contenuti, è invece è quello della creatività e dell’attribuzione di un’opera, una foto ad esempio. I prodotti di AI ci consentono di creare una foto, o un video, solo basandoci su una descrizione testuale (“prompt”) o anche partendo da una o più foto di riferimento, che completiamo poi con le indicazioni dettagliate del prompt.

Il risultato, a volte scadente, ma altre davvero eccezionale, a seconda del prodotto utilizzato, è una creazione complessa, che non possiamo attribuire a noi, ma neanche all’AI. Si tratta del nuovo modo di utilizzare i modelli generativi, non solo foto o video, ma anche testo. Molti degli articoli, e anche interi libri, che vedete in giro, sul mercato, sui giornali e sul web, sono stati prodotti utilizzando gli LLM (GPT, Gemini, Claude, ecc.).

Questo nuovo modo di lavorare implica una collaborazione, tra il creatore umano e il creatore artificiale. L’AI non genera da solo quel prodotto, non saprebbe cosa fare, ma segue le indicazioni che gli diamo noi attraverso i prompt o anche usando delle nostre foto come riferimento. Spesso questo processo richiede ore di lavoro, quindi è effettivamente un lavoro fatto da noi umani, e dai nostri “team-mate” artificiali.

Immagine di una ragazza generata a partire da un Avatar

E’ meglio? E’ peggio? No, è diverso. Quando cominciammo a riprendere paesaggi e persone utilizzando le macchine fotografiche, ci ponemmo il problema se fossero meglio le foto che stavamo scattando o i quadri, creati dai grandi paesaggisti? E che dire della scrittura, che fu criticata addirittura da Platone (intorno al 370 a.C.), nella sua opera “Fedro” ? Platone sosteneva che la parola scritta avrebbe indebolito la nostra memoria, ci avrebbe reso pigri, impedendo ai giovani di apprendere. Non solo, ma Platone sosteneva che si sarebbe creata l’illusione della conoscenza solo leggendo le cose, senza approfondirle. Sembra di leggere argomenti di pressante attualità, sollevati dall’utilizzo degli LLM, i modelli di AI Generativa del linguaggio. Tanto che è stata creata, da ricercatori italiani, una nuova parola per definire questo effetto: “Epistemia“. Un termine che ha fatto il giro del mondo.

Tornando all’utilizzo dei prodotti di AI generativa per i contenuti, si tratta semplicemente dell’avanzamento della scienza, e della tecnologia che l’accompagna, che mette a nostra disposizione strumenti sempre nuovi, in particolare negli ultimi anni. E noi siamo costretti oggi a rincorrere il progresso, che ha assunto una velocità evolutiva esponenziale, per capire prima, e per usare poi, la nostra cassetta degli attrezzi, che si riempie continuamente di nuovi strumenti, che siano la scrittura, la stampa, la macchina fotografica, o l’Intelligenza artificiale.

Quindi, in conclusione, le opere che creiamo noi utilizzando i modelli generativi di Intelligenza Artificiale sono sempre creati da noi, col nostro pensiero soprattutto, la nostra idea che vogliamo realizzare, ma anche con questi nuovi strumenti che abbiamo a disposizione. Come sempre è successo nella storia, del resto…

Un saluto a tutti.

La grandezza di Midjourney

Con il progredire dei Large Language Model, come GPT, Gemini, o LLAMa, la loro tendenza a diventare Multimodali, cioè generalisti, trattando oltre al testo anche le immagini, e poi i video, è andata diffondendosi. Sono nate delle immagini generate di grande qualità, e tutti noi ci siamo sbizzarriti a crearle. L’effetto negativo è la creazione di Deep Fake, che spesso contribuiscono alla disinformazione, e alla manipolazione delle persone. Ma questa è un’altra storia.

Sono così comparsi molti sistemi di intelligenza artificiale capaci di generare immagini partendo da una semplice descrizione (prompt): oltre a quelli citati anche DALL-E, Stable Diffusion, Firefly, Ideogram, e altri ancora. Eppure, uno di questi continua a spiccare in modo evidente: Midjourney. Chiunque l’abbia provato lo sa bene, perchè le immagini che produce sembrano spesso uscite da una rivista, o da un sogno. Ma cosa lo rende così speciale?

La differenza nasce da un insieme di scelte intelligenti e da una visione artistica molto precisa. Midjourney non impara da immagini casuali prese dal web, ma da collezioni selezionate con cura, privilegiate per la loro qualità estetica (altissima qualità dei dataset di addestramento). È come se il modello avesse frequentato una scuola d’arte, imparando dai migliori esempi di fotografia, illustrazione e design.

Anche la sua struttura tecnica è progettata per cogliere ogni minimo dettaglio: luce, profondità, texture, composizione. Per questo le immagini di Midjourney appaiono sempre equilibrate e piene di sfumature, mentre altri modelli di intelligenza artificiale, pur precisi, spesso sembrano più “meccanici”.

C’è poi un elemento unico: la community. Ogni giorno milioni di persone creano, votano e reinterpretano immagini, e il sistema utilizza questo flusso continuo di feedback per migliorarsi. Midjourney evolve insieme ai suoi utenti, seguendo i gusti, le tendenze e persino le mode visive che emergono online.

E’ quello che tecnicamente si chiama “Reinforcement Learning” utilizzato anche da altri LLM ma non a livello di comunità, quanto piuttosto di pregettisti.

Un altro punto di forza è la comprensione dei prompt, le descrizioni testuali da cui tutto parte. Con Midjourney non serve usare codici complicati o termini tecnici: basta scrivere come si parlerebbe a un artista, in linguaggio naturale (preferisce l’inglese). Il modello interpreta il tono, lo stile e perfino l’intenzione estetica di chi scrive, restituendo immagini coerenti con l’idea di partenza.

Ogni creazione, inoltre, viene rifinita automaticamente: il sistema migliora i dettagli, aumenta la nitidezza e rende l’immagine pronta per la pubblicazione senza bisogno di fotoritocchi esterni (non ci serve Photoshop).

A dirigere tutto questo c’è David Holz, già cofondatore di Leap Motion, che ha voluto fare di Midjourney non solo un progetto tecnologico, ma un’esperienza creativa. Il suo obiettivo non è semplicemente riprodurre la realtà, ma creare bellezza. È per questo che le immagini di Midjourney non colpiscono solo per la loro precisione, ma anche per la loro forza evocativa.

In fondo, Midjourney è qualcosa di più di un generatore di immagini: è un laboratorio collettivo dove la tecnologia incontra la sensibilità umana, e dove ogni prompt diventa un piccolo atto di immaginazione condivisa.

Linden Lab workers

Ho fatto una ricerca per avere dati aggiornati sullo staffing della Linden Lab e ho trovato, dopo un pò di ricerche, i dati ufficiali ma non completi nel dettaglio, di come sia strutturata in termini di dipendenti e di collaboratori esterni, tra contractors, come i “Mole”, e freelance che hanno una collaborazione saltuaria.

La Linden Lab, la società statunitense fondata nel 1999, e creatrice di Second Life, impiega oggi circa 245 dipendenti diretti. Tuttavia, la sua forza lavoro effettiva è molto più ampia grazie a una rete di collaboratori esterni che operano in diversi ambiti. L’azienda stessa, nelle proprie policy, specifica che le sue norme interne si applicano non solo ai dipendenti ma anche a “contractors, temporary workers, consultants and contingent workers”, segno di una struttura flessibile e distribuita.

Da: Linden Lab

Il programma più noto di collaborazione è il Linden Department of Public Works (LDPW), i cui membri, conosciuti come “Moles”, sono residenti di Second Life ingaggiati come contractors per costruire infrastrutture, regioni, ambienti urbani e progetti speciali (Linden Department of Public Works – Second Life Wiki). I Moles lavorano su base oraria e rappresentano il volto più visibile dei collaboratori esterni, ma non sono gli unici: Linden Lab si avvale anche di freelance e consulenti per sviluppo software, supporto tecnico, moderazione, marketing e design grafico.

Per una società come questa, potrebbe essere normale avere contractor pari al 20-50% del personale interno in termini di “equivalenti a tempo pieno”. Quindi 30–70 Moles e 40–120 contractor esterni in altri reparti. Otteniamo un intervallo stimato da circa 70 a 200 collaboratori esterni attivi in un dato momento. Considerando stagionalità, progetti variabili, turnover, è possibile che il numero cumulativo (in un anno) sia più alto (ad esempio 150-300 persone esterne coinvolte in un anno). Sommando dipendenti e collaboratori, la forza lavoro complessiva stimata si aggira tra 300 e 450 persone, con un nucleo stabile interno e una rete dinamica di professionisti che contribuiscono in modo continuativo o ciclico ai progetti. Si tratta di stime, naturalmente, perchè i dati ufficiali non sono forniti dall’azienda.

È un modello ibrido che riflette la filosofia stessa di Second Life: una piattaforma costruita non solo da un’azienda, ma da una comunità estesa di creatori, tecnici e visionari che, insieme, danno forma a un mondo virtuale vivo e in continua evoluzione.

L’aggressività in rete

Ci sono molti comportamenti aggressivi che vengono perpetrati in rete che bisogna combattere a tutti i costi, come il cyberbullismo, ad esempio. Questi casi vanno denunciati alle forze dell’ordine, che hanno nuclei specializzati, molto bravi, per seguire questo genere di reati. Sono comportamenti da non sottovalutare, in particolare quando colpiscono dei minori, come leggiamo dalle cronache. Occorre aiutare i nostri figli a conoscere questi rischi, per difendersi e chiedere aiuto in caso di bisogno. Ricordiamoci sempre che la rete non è un territorio franco, le leggi dello stato e i regolamenti internazionali valgono anche su internet.

Ci sono poi comportamenti più subdoli, che creano un clima negativo attorno alle vittime prescelte, che a volte sfociano in reati e a volta creano solo un clima pesante, che compromette l’agibilità e l’accesso alla rete delle persone. Molti abbandonano Facebook, o anche i Mondi Virtuali, per il clima di intolleranza, i gossip, le aggressioni personali da parte di individui o anche di bande di farabutti.

Ci sono anche comportamenti individuali più “leggeri”, diciamo, di quelli che si creano attorno un’aura di vittimismo, denunciando comportamenti fraudolenti di certuni (quasi sempre non si sa chi) a loro danno. Solitamento è l’ex di turno, sempre fedifrago, mentitore e baro! Solitamente, secondo le statistiche, sono di più le donne ad essere dotate dotate di queste fantasie con cui cercano di mettersi in evidenza. Comportamento puerile, ma che fa danno solo se diretto contro qualcuno in particolare.

Comportamenti aggressivi di gruppo sono poi quelli che si originano dalle “tribù”, gruppi di individui, clan, bande, tenute insieme da un qualche interesse, dalla voglia di bullizzare qualcuno, anche solo diffondendo notizie false o inventandosi storie di sana pianta. Nulla di nuovo sotto il sole, individuare un nemico (a volte immaginario, come succede spesso in politica) è tipicamente un modo per fare gruppo, per creare dei legami, per coalizzarsi contro qualcuno o qualcosa: la tribù rivale, i “nemici”, l’odiato avversario.

Spesso la vittima è un personaggio invidiato (un politico di successo, un leader, uno scrittore) e per questo motivo perseguitato, tanto per darsi una qualche importanza, non avendo altro da valorizzare di se stessi. L’aggravante del fenomeno, nel caso della “banda”, è che in rete si crea una forma di solidarietà, o di complicità se vogliamo, verso l’diatore che denuncia la balla. Arrivano gli amici, i parenti, i sodali, che spesso commentano e rafforzano la balla, diventata così di gruppo.

Comportamenti per lo più maschili sono invece quelli, ad esempio, del “bullo di quartiere”, che minaccia a destra e a manca di far crashare, bannare ecc. A volte questi comportamenti arrivano alle richieste di “pizzo”, con varie modalità. Ma qui si sfocia nel penale, e rientriamo nel caso delle denunce per reato. Altri esempi sono quelli del “boss di quartiere” che detiene, e fa valere, una qualche forma di potere, o di ownership. Squallidi personaggi.

Sono tutti comportamenti negativi, di varia entità e gravità, ma che rendono la rete, e quindi anche un Mondo Virtuale, un posto non facile da vivere per degli sprovveduti, o anche per coloro che, in buona fede, cadono in queste vicende perchè poco attenti a certe dinamiche.

La prima forma di protezione è esserne consapevoli naturalmente, e adottare una serie di difese che con l’esperienza ognuno impara a gestire. La prudenza, innanzitutto: non dare mai informazioni personali, o anche foto, o altri elementi di tracciabilità. Non alimentare mai l’acqua in cui certi viscidi personaggi nuotano, insomma.

Ma la cosa più importante da fare è quella di non farsi condizionare, e vivere le proprie interazioni in rete con prudenza, ma senza stare al gioco di chi su queste cose ci campa, non avendo altro da fare o nessuna vita sociale da difendere. Prudenza, ma anche menefreghismo e spensieratezza, sapendo che chi va per questi mari, questi pesci sempre troverà …

Un saluto a tutti. 🦅

Esiste ancora la verità?

L’ Intelligenza Artificiale, con cui facciamo i conti ogni giorno, continua a sorprenderci, e compie dei passi in avanti con cadenza quasi quotidiana. A partire dal marzo di due anni, con il rilascio di ChatGPT da parte di OpenAI, tutto il mondo ha imparato a conoscere e a iniziato a parlarne, i Large Language Model come GPT, e come altri che ne sono seguiti, da Gemini a Grok, a LLAMA. Anche il mondo del design, dell’arte, della fotografia, ha iniziato a usare questi strumenti, man mano che dal testo e dal dialogo si passava a generare immagini, sulla base di istruzioni fornite dall’utente. I LLM sono così diventati “generalisti“, passando dal testo alle immagini, ai filmati. Alcuni, come Midjourney e diverse altre app, si sono specializzati sulla generazione di immagini, con caratteristiche diverse dai LLM. Il risultato di questa evoluzione è stato straordinario. Da un lato siamo venuti in possesso di strumenti formidabili, per lo studio, il lavoro, l’arte, la grafica, dall’altro il modo dell’informazione è stato invaso da foto e filmati generati da prodotti di AI, molto spesso non dichiarandone l’origine, e quindi inquinando il mercato dell’informazione.

Le regolamentazioni come l’ AI Act, in vigore dall’agosto 2024, impongono di dichiarare in modo chiaro e riconoscibile che un testo o immagine è stata prodotta utilizzando strumenti di AI. L’art. 50-2 del Regolamento (UE 2024/1689 – AI Act) così recita:

I fornitori di sistemi di IA, compresi i sistemi di IA per finalità generali, che generano contenuti audio, immagine, video o testuali sintetici, garantiscono che gli output del sistema di IA siano marcati in un formato leggibile meccanicamente e rilevabili come generati o manipolati artificialmente.”

Naturalmente una cosa è il regolamento, altro è quello che succede su un mercato vastissimo e multinazionale, e anche se le sanzioni sono pesantissime, questa indicazione molto spesso non è seguita, in particolare se questi prodotti vengono generati in paesi dove l’AI Act, e altre regolamentazioni simili, non sono in vigore. Abbiamo assistito quindi ad un proliferare di immagini AI Generated, con effetti a volte divertenti, ma in generale deleteri, perchè il settore dell’informazione è stato gravemente inquinato, al punto che non si riesce a distinguere, molto spesso, quali immagini siano reali e quali invece siano generate dall’AI. Stesso discorso per i testi, generati da LLM come Chat-GPT e suoi simili, che vengono spesso utilizzati senza chiarirne la fonte, a volte con risultati molto negativi, vista la frequente approssimazione e le cosiddette “Allucinazioni” di cui soffrono ancora questi sistemi.

Tornando alle immagini, nei giorni scorsi in rete ci sono state molte polemiche sulle immagini provenienti da Gaza, che mostravano alcune della atrocità che questa guerra sta generando. Questo ha dato spazio ad accese polemiche, anche di famosi giornalisti e politologi. Il problema è che a volte si riesce a chiarire cosa sia vero e cosa no, ma più spesso occorre fare analisi molto approfondite per stabilire l’origine. Naturalmente è possibile rilevare errori marchiani, commessi dal modello generativo, tipo mani a sei dita, immagini dei volti palesemente distorte, illuminazione incoerente con le ombre, e così via, ma altre volte il risultato prodotto raggiunge quasi la perfezione.

Sono così nati dei prodotti che analizzano le immagini, con un metodo tecnicamente inverso a quello della generazione, per riuscire ad identificare quelle tracce che dimostrino la realtà o meno dell’immagine. Ci sono alcuni strumenti sul mercato che, con buona approssimazione, riescono a darci una diagnosi: AI or Not, HuggingFace AI detectors, e FotoForensics sono i più diffusi. E ultimamente è nata anche una startup italiana, fondata a Milano da Marco Ramilli e Marco Castaldo, che ha raccolto dei finanziamenti e ha prodotto uno strumento che si sta rivelando tra i migliori disponibili. Si tratta di IdentifAI (https://web.identifai.net/), che può essere usato, anche se con molte limitazioni, in modo gratuito, tramite interfaccia web.

Ho fatto qualche test per provarlo, usando tre immagini diverse: una reale, una prodotta con l’ Intelligenza Artificiale e l’altra ricavata da uno screenshot di un Avatar in Second Life. I risultati sono stati molto interessanti: mentre per la foto reale e per quella generata dall’AI il responso è stato molto chiaro, vicino al 100% di attendibilità, per l’avatar di Second Life il risultato è stato inaspettato. Vi riporto i report forniti per ognuna delle tre immagini.

Analisi effettuata sulla foto reale.

Analisi su foto generata da AI

Analisi sulla foto di un Avatar scattata in Second Life

La foto dell’Avatar è stata classificata come “Umana” al 99,97%, in un tool,, e al 59,05% in un altro tool. Sarebbe interessante accedere agli altri due tool, ancora più potenti, per vedere se il risultato cambia, ma non ho voglia per ora di pagare l’ennesimo abbonamento. Chi vuole, può tranquillamente farlo, e farci magari conoscere il risultato!

Per ora, l’Avatar viene classificato come “Umano”. Ma questo … lo sapevamo già.

Un saluto.

E se pensassero come noi..?

Tutti noi ci stiamo divertendo, ultimamente, ad utilizzare i nuovi Modelli di AI, per ritoccare le foto, per generare immagini, per chiacchierarci come se fossero un essere umano, e così via. Ed è qualcosa che era impensabile solo tre anni e mezzo fa, fino a quando non è stato reso pubblico Chat GPT3, dal novembre 2021.

Eppure, l’ Intelligenza Artificiale viene da lontano, e questo termine fu coniato addirittura nel 1956 da John McCharty, anche se già da prima le basi teoriche erano state poste da Alan Turing (ricorderete il film “The Imitation Game”). Turing definì quello che da allora si chiama il “Test di Turing“, che definisce la soglia oltre la quale una macchina può essere ritenuta “intelligente” come una persona. Il test è semplice: se una persona comunica da remoto, tramite terminale, o con qualsiasi altro mezzo, con una AI e con una persona, e non riesce a distinguere l’uno dall’altro nella interazione, allora la macchina è ritenuta intelligente quanto un umano. Questo test non era mai stato superato fino ad oggi da nessun sistema di AI, ma oggi ci siamo arrivati. Ancora qualche perfezionamento nel dialogo e i sistemi di AI definiti LLM (Large Language Model), come Chat-GPT, avranno raggiunto l’obiettivo.

Ma davvero a quel punto un sistema di AI potrà essere ritenuto intelligente? La domanda non vi sembri banale, perchè definire il termine “intelligenza” è molto arduo, dato che molte sono le ambiguità e le diverse spiegazioni che se ne danno. Ad aumentare la confusione poi ci si è messo McCharty, che ha definito questa branca della Cibernetica come “Intelligenza”, per quanto artificiale. E come se non bastasse la loro architettura oggi è basata su un modello definito “Rete Neurale“, con una diretta analogia col cervello umano.

La così battezzata “Intelligenza Artificiale” viene quindi da lontano, ma perchè ce ne stiamo occupando solo oggi, e solo oggi sono stati messi in commercio sistemi così potenti? La ragione è molto facile da individuare. L’AI “classica” era basata su dei software abbastanza semplici, che rispondevano a domande o davano soluzioni sulla base di regole predefinite dagli esperti, come se venisse eseguito un qualsiasi software: se tu mi chiedi questo, e se quest’altro e fatto così, e la regola dice questo, allora la risposta è quest’altra. Un semplice prodotto software, che fu diffuso negli anni ’80 e ’90 col nome di “Sistemi Esperti“.

Quando si arriva agli anni ’80 assistiamo alla nascita, e poi alla progressiva espansione, di Internet, e con la rete si creano canali di comunicazione veloci e facili da utilizzare. Parallelamente, la potenza dei processori aumenta esponenzialmente, con la cosiddetta “Legge di Moore“, che dice che il numero di transistor inseribili in un chip raddoppia circa ogni due anni, e anche se la curva della crescita si è rallentata, per motivi fisici, la crescita continua. Come continua ad aumentare la mole di dati, che produciamo e diffondiamo ogni minuto su internet, determinando la più straordinaria crescita di informazioni della storia in tempi molto rapidi. Il 90% di tutti i dati della storia umana sono stati prodotti negli ultimi tre anni. E’ questo il tempo dei cosiddetti “Big Data“. Se a questi sviluppi aggiungiamo poi la velocità delle connessioni, con l’aumento della banda trasmissiva, abbiamo tutti gli ingredienti per una rivoluzione vera e propria.

Manca l’ultimo passaggio, quello della creazione dei sistemi di “apprendimento” per addestrare i sistemi di AI, visto che la mole di dati necessaria a disposizione ce l’abbiamo, e che la potenza elaborativa che abbiamo sviluppato negli ultimi anni ha prodotto enormi data center per macinare informazioni. Questi sistemi sono stati creati, con le già citate “Rete Neurali“. Senza entrare in dettaglio, possiamo dire che una Rete Neurale è fatta di tanti nuclei elaborativi, per analizzare migliaia di parametri e metterli in correlazione tra loro, per arrivare a delle conclusioni molto attendibili. Durante l’addestramento il sistema “impara” analizzando dati e soluzioni già disponibili, quindi, in un certo senso, impara la logica del ragionamento, impara a “pensare” per così dire. Una Rete Neurale potente sfrutta le cosiddette tecniche del “Deep Learning” per arrivare alle sue decisioni.

A questo punto la nuova Intelligenza Artificiale è stata creata. Analizza dati, impara, ricava delle regole da sola, e arriva a delle conclusioni, di qualunque tipo esse siano. Questi sistemi vengono oggi adottati per moltissimi scopi: per le ricerche, per creare delle chat bot intelligenti, per elaborare immagini, per fare previsioni economiche, per il riconoscimento dei volti, e anche per gli armamenti, purtroppo.

Ma possiamo paragonare un Modello di AI ad un essere umano? Assolutamente no, perchè c’è una caratteristica umana che un sistema di AI non potrà mai avere, e non sono affatto le “emozioni”, altro termine ambiguo e soggetto a mille interpretazioni, ma la capacità, del tutta umana, di commettere errori, di provare rimorso per questo, e di correggersi, evolvendosi in modo empatico. Un software potrà essere infallibile in futuro, ma non avrà mai questa capacità, o questo “difetto” se vogliamo vederla così.

Lo sviluppo dei sistemi di AI ci sta ponendo moltissimi problemi, di tipo etico, sociale, legislativo e procedurale, e le legislazioni stanno cercando faticosamente di adeguarsi a questa evoluzione, come ha fatto l’Europa con l’ AI Act. Ma non tutti i paesi sono sulla stessa lunghezza d’onda, perchè molti preferiscono dare carta bianca alla ricerca e agli sviluppi di questi sistemi. Insomma, siamo in un’epoca di grandi problemi, che comportano grandi rischi, e anche notevoli pericoli. Ma la sfida del futuro è tutta qui, nella gestione e nell’utilizzo di questi straordinari prodotti della scienza e della tecnologia.

Un saluto a tutti.

Mettiamo insieme i pezzi …

Abbiamo oggi a disposizione un numero quasi illimitato di prodotti, alcuni classici (word processor, fogli elettronici, editor di immagini, ecc.) altri del tutto nuovi, realizzati con modelli di Intelligenza Artificiale. Nessuno è in grado di padroneggiarli tutti, ma è possibile selezionarne alcuni e cercare di sfruttarli al meglio per ottenere dei risultati soddisfacenti.

Ho voluto creare un “caso di studio” partendo da una delle immagini che mi piace scattare in Second Life, uno dei Mondi Virtuali più adatti alle foto, per la ricchezza dei dettagli di molte ambientazioni e la versatilità dei viewer, che permettono di ottenere un lavoro abbastanza professionale.

Primo Step: scatto di una immagine in Second Life – Tool utilizzato: Viewer Firestorm 7.1.11 – Immagine ad alta definizione, dimensione 25 MB:

Immagine da Second Life

Secondo Step: modifica e adattamento delle dimensioni dell’immagine. Tool utilizzato: Photoshop 26.6.0

Immagine modificata con Photoshop

Terzo Step: a partire dalla mia immagine modificata con Photoshop voglio procedere alla generazione di una immagine utilizzando un sistema di Intelligenza Artificiale, Midjourney V7. Dopo diversi tentativi (è l’approccio normale nell’utilizzo di questi strumenti) che non mi hanno convinto del tutto, ho chiesto ad un altro strumento di Intelligenza Artificiale, Chat-GPT 4o, di propormi un prompt (sequenza di istruzioni) da dare in pasto a Minjourney. Anche qui, come al solito, ho fatto diversi tentativi, fino ad ottenere un prompt che mi soddisfacesse. Nel prompt è inserito anche l’URL dell’immagine, caricata in precedenza sul mio sito. Tool utilizzati: WordPress, Chat-GPT 4o, Midjourney V7 e Discord.

Prompt proposto da Chat-GPT 4o per Midjourney V7

Quarto Step: con il prompt ottenuto sono passato alla generazione dell’immagine con Midjourney V7, con vari tentativi fino ad ottenere un risultato soddisfacente. Tool utilizzati: Midjourney, Discord.

Immagine generata da Midjourney su porompt suggerito da Chat-GPT 4o

Quinto Step: con le nuove funzionalità messe a disposizione da Midjourney, nella sua Versione 7 da qualche giorno, Animate Image, ho generato un video, a partire dall’immagine precedentemente ottenuta. Tool utilizzato: Midjourney V7 – Animate Image

Filmato senza audio generato da Midjournay-Animate pubblicato su YouTube, come demo.

Sesto Step: ultimo passaggio, aggiungiunta una clip musicale utilizzando il tool di Microsoft, incluso in Office 365, Clipchamp, al video ottenuto da Midjourney. La clip è stata ottenuta dalla libreria free Audio Library di Google. Il video ottenuto è stato pubblicato su Flickr e Youtube. Tool utilizzati: Google Audio Library, Microsoft Clipchamp, Flickr, Youtube.

Filmato finale con audio pubblicato su YouTube.

Conclusioni: Sicuramente è un procedimento laborioso, ma ho voluto sfruttare i diversi strumenti, ognuno con le proprie funzionalità. Sarebbe possibile ottenere un risultato simile usando unicamente tool di AI, ma non avrei ottenuto il risultato che volevo, guidando passo passo la trasformazione. Ed è stato divertente …

Un saluto.

Gli apprendisti stregoni

Negli ultimi mesi siamo più volte tornati sul tema dell’Intelligenza Artificiale nei Mondi Virtuali, perchè questo è il tema prevalente di questo Magazine. Ma le discussioni sull’impiego dei sistemi di AI hanno ormai preso il sopravvento su qualsiasi altra discussione, in tutti i settori e in tutti i contesti. E il motivo è molto serio: si sono visti i progressi enormi con cui questi sistemi si stanno evolvendo, e si vede che il ritmo del loro miglioramento è esponenziale, non lineare. Più questi sistemi vengono impiegati, più si addestrano, e più si addestrano, più forniscono risposte e prestazioni migliori, e più vengono utilizzati, dappertutto. E’ una spinta inarrestabile.

Questi sistemi stanno entrando in tutti i contesti, dall’istruzione al giornalismo, dagli studi legali alle diagnosi mediche, dalle auto a guida autonoma alla gestione intelligente delle città, con enormi benefici, ma anche con enormi rischi da gestire. Il primo tema riguarda la perdita di posti di lavoro, che sta avvenendo ad un ritmo impressionante, in tutti i settori in cui le macchine “pensanti” sono molto più efficienti di noi. E la cattiva notizia è che questi settori non sono più solo quelli con attività manuali o ripetitive, ma sono tutti i settori. Proprio tutti, nessuno escluso. Certamente stanno nascendo nuove professioni: i Prompt Engineers, i Data Scientists, I supervisori degli algoritmi di Machine Learning, e così via. E tutti i centri di ricerca sostengono, non so su quali basi, che il numero di posti di lavoro che si creeranno saranno di più di quelli che perderemo. Non so se si possa essere d’accordo su questo, io sono del parere opposto, ma non ho alcuna ricerca scientifica a sostegno di questa mia ipotesi, perchè prevedere queste evoluzioni non è possibile al momento. Quello che dovrà avvenire sarà sicuramente una rimodulazione complessiva dei tempi di vita e di lavoro, ma questo richiederà tempi lunghi, e forse crisi e rivoluzioni sociali. Questo è quello che sta avvenendo, sotto i nostri occhi.

Insieme a questa evoluzione sociale, ci stiamo ponendo però anche delle domande riguardanti la nostra stessa esistenza, come umanità. Questi sistemi comportano dei gravi rischi, se non controllati e gestiti con regole e limiti efficaci. Questa discussione, ampia e approfondita, ha portato l’Unione Europea alla promulgazione, ad agosto 2024, dell’ AI-Act, un capolavoro di visione dei rischi e di messa in campo di regole importanti, a salvaguardia della vita e della dignità delle persone. Purtroppo, la velocità con cui si procede è molto più elevata delle iniziative legislative e regolamentari, e molti paesi non vogliono affatto subire controlli, o porsi dei limiti nella ricerca e nello sviluppo. Quindi, regolamentazioni come l’AI Act sono fondamentali, ma non bastano.

I rischi riguardano, all’estremo, il pericolo che sistemi non controllati possano prendere il sopravvento sui controlli, ed agire in base ai loro algoritmi, e ai parametri di valutazione con cui sono stati progettati. Ed esiste il rischio che armi dotate di Intelligenza Artificiale possano scegliersi degli obiettivi, ed agire di conseguenza. E se è classico l’esempio dell’auto a guida autonoma, che si vede costretta a scegliere se investire un ragazzino o un vecchio laddove non esiste altra soluzione, è facile immaginare cosa potrebbe fare un sistema rivolto alla salvaguardia ambientale, per fare un esempio, che individuasse come specie parassita, e quindi pericolosa per l’ambiente, quella umana, decidendo quindi di porre rimedio a questo pericolo.

Il tema del Controllo è fondamentale, non solo per lo sviluppo sano di questi sistemi, ma per la salvaguardia stessa della specie umana. Molti scienziati, tra cui anche Steve Hawking e Jeoffrey Hinton, premio Nobel per la fisica lo scorso anno, hanno chiaramente delineato questi rischi come paragonabili a quelli posti dall’uso di armi nucleari. Siamo di fronte allo stesso ordine di grandezza del livello di rischio. Sarebbe quindi necessario creare degli organismi internazionali di controllo, e arrivare a dei trattati internazionali per il controllo della proliferazione di armi controllate dai sistemi di AI.

Come nel caso dell’ambiente e dei cambiamenti climatici, anche nel caso del controllo dell’AI l’umanità non sta affrontando il problema nel modo e con l’urgenza che sarebbe necessaria. Se vogliamo evitare la catastrofe, che al momento, non solo è possibile, ma potrebbe già essere inevitabile, occorre muoversi con grande determinazione. Perchè la velocità con cui si stanno evolvendo questi sistemi, esponenziale come detto, è giunta ormai al limite del possibile controllo umano.

Il mio è il pessimismo della ragione, di chi vede i popoli e gli stati continuare a sterminarsi come se un secolo di tragedie fosse passato invano. Occorrerebbe uno scatto culturale ed emotivo in avanti, perchè il tempo si sta esaurendo …

L’invasione delle Intelligenze Artificiali

L’introduzione dei sistemi di Intelligenza Artificiale nei Mondi Virtuali era solo questione di tempo, e infatti ci siamo arrivati. I primi AI-bot sono stati introdotti in Second Life, che come sempre è di un passo avanti agli altri, ma anche in Spatial, in VR_Chat ed in Horizon World. Ma presto li vedremo dappertutto, così come sta avvenendo nel mondo reale.

Siamo stati affascinati, negli ultimi due anni, da sistemi come Chat-GPT, Gemini, Llama, e altri che stanno nascendo come funghi, e ci siamo prima divertiti a usarli, a testarli, e poi ad utilizzarli come ausilio al nostro lavoro, negli studi, nelle ricerche. Questo modo di utilizzare i chat-bot sta mettendo in crisi, giustamente, i sistemi di ricerca tradizionali, come la search di Google, ma è l’evoluzione tecnologica, va benissimo per tutti. Io utilizzo Chat-GPT per scrivere codice o per controllare quegli script che non mi funzionano, o anche per generare immagini, che inserisco, ad esempio, nei miei post, o per ricerche bibliografiche. Bisogna però stare attenti, altrimenti si rischia di incorrere in gravi inesattezze, ad esempio portando in tribunale della giurisprudenza inventata di sana pianta, come è successo in un tribunale italiano quelche giorno fa, o anche in USA prima ancora.

Occorre essere certi che le risposte che ci fornisce siano corrette, prima di usarle. E questi Chat-bot li stanno naturalmente utilizzando gli studenti, per fare i compiti o svolgere esercitazioni, e qui piuttosto che demonizzarli o impedirne l’uso, cosa ormai impossibile, gli insegnanti dovrebbero insegnare ad usarli al meglio, preparandosi bene per questo compito.

Ma l’AI non è solo Chat-bot e Chat-GPT, è anche tante altre cose. I sistemi di AI controllano ormai quasi tutti i sistemi gestionali, dal pilotare gli aerei, ai sistemi d’arma, alle procedure di istruttoria bancarie, e fino ad un massiccio impiego, in certi paese, per il riconoscimento facciale delle persone, in un sistema di controllo pervasivo, che in Unione Europea, ad esempio, è vietato dall’AI-Act. E questo benedetto AI-Act, approvato nell’agosto scorso, andrebbe letto a fondo, perchè è un esempio grandioso di elaborazione concettuale e di analisi di questi sistemi, che ha portato ad un insieme di regole e di indicazioni, a protezione della privacy, del rispetto delle persone, della trasparenza e della riconoscibilità di questi sistemi. E’ uno dei risultati più importanti, dopo l’Euro ed il mercato comune, prodotti dall’Unione Europea.

Il problema della “riconoscibilità” è fondamentale, quando pensiamo all’introduzione di questi sistemi nei Mondi Virtuali, perchè occorre essere certi che quando incontriamo una persona in ambiente virtuale, siamo in grado di risconoscere se sia un umano o un AI-bot introdotto sulla piattaforma come Avatar. Così come pure dobbiamo essere certi che questi AI-bot, ben riconoscibili, non usino i nostri dati scambiati nelle chat per il loro addestramento, con grave danno alla nostra privacy, se non autorizzati da noi.

E questi sono stati i temi della Town Hall di ieri, organizzata con grande sensibilità dal management della Linden Lab. Ci sono stati tantissimi interventi su questi temi, così come su quelli della protezione della proprietà intellettuale, e sulla introduzione in piattaforma e sul marketplace di prodotti generati con AI, un altro tema sensibilissimo posto dall’introduzione di questi sistemi inworld. E’ stato un dibattito molto interessante, in cui sono intervenuto sul tema della “identificabilità“. Siamo ancora all’inizio della discussione, naturalmente, e molti passi in avanti occorrerà fare, ma sono i temi di cui si dibatte in tutto il mondo, e anch’io, per quello che posso, cerco di dare qualche contributo, per quanto minimo possa essere rispetto ai giganti dell’AI.

E’ mia opinione che i TOS delle piattaforme virtuali vadano aggiornati, per dare delle indicazioni e delle regole certe sull’utilizzo di questi sistemi di AI. Le regole non sono facili da imporre, perchè nel creare un account, come faceva notare ieri Philip Rosedale, si può mantenere l’anonimato, quindi non è facile imporre una tag di riconoscimento, se non basandosi sulla buona fede di chi crea l’account. Credo che su questo punto bisogna fare dei passi in avanti da parte dei progettisti, perchè un sistema per imporre l’identificazione degli AI-Avatar si può, e si deve, trovare. Altre regole andrebbero poi poste sulla privacy, estendendo i TOS già attualmente in vigore, come anche sulla proibizione di mettere sui marketplace dei prodotti generati da AI.

Occorrerebbe insomma, ed è una proposta che faccio alla Linden Lab, creare un comitato di esperti, che nel giro di qualche settimana produca una serie di linee guida, che possano servire per effettuare delle modifiche tecniche ed ai TOS. Credo sarebbe il modo più efficace per capitalizzare tante competenze, che pure sono emerse nella Town Hall di ieri, e per adeguare la piattaforma a queste nuove evoluzioni, ma anche a questi nuovi rischi.

Un saluto.

ENGLISH VERSION

The Invasion of Artificial Intelligences

The introduction of Artificial Intelligence systems into Virtual Worlds was only a matter of time, and now, it’s happening. The first AI bots have been introduced in Second Life, which, as always, is one step ahead of the rest, but also in platforms like Spatial, VRChat, and Horizon Worlds. And soon, we’ll see them everywhere, just as we are in the real world.

Over the past couple of years, we’ve been fascinated by systems like ChatGPT, Gemini, Llama, and many others popping up like mushrooms. At first, we played with them, tested them out, and then started using them to support our work, studies, and research. This way of using chatbots is rightfully challenging traditional search systems, like Google Search—but that’s technological evolution, and it’s a good thing for everyone. I personally use ChatGPT to write code or to debug scripts that don’t work, to generate images I use in my posts, or even for bibliographic research. But we need to be careful—otherwise, we risk running into serious inaccuracies. For example, there was a recent case in an Italian court where someone presented entirely fabricated legal precedents, generated by AI, just like it had already happened in the U.S.

We must be sure the answers these tools give us are accurate before relying on them. Naturally, students are also using these chatbots to do their homework or complete assignments. Rather than demonize or ban their use, which is now impossible, teachers should focus on showing students how to use them wisely, and prepare themselves accordingly for this task.

But AI isn’t just about chatbots and ChatGPT. It’s also so much more. AI systems are now behind almost every management system, from piloting aircraft, to weapon systems, to banking procedures, and even, in some countries, widespread facial recognition as part of a pervasive surveillance system. In the European Union, for example, this kind of surveillance is banned by the AI Act. And this AI Act, approved last August, really deserves to be read carefully, because it’s a remarkable example of conceptual clarity and thoughtful analysis of these technologies. It has resulted in a set of rules and guidelines to protect privacy, uphold human dignity, and ensure transparency and traceability of AI systems. It’s one of the most important achievements of the European Union, right up there with the euro and the single market.

The issue of recognizability is fundamental when we think about introducing these systems into Virtual Worlds. We need to be sure that, when we meet someone in a virtual environment, we’re able to tell whether we’re interacting with a human or an AI bot introduced into the platform as an avatar. Likewise, we must be certain that these AI bots, clearly identifiable, are not using the data exchanged in chats to train themselves, which would be a serious violation of our privacy if done without our consent.

These were exactly the topics discussed at yesterday’s Town Hall, thoughtfully organized by Linden Lab’s management. There were many contributions on these issues, as well as on the protection of intellectual property and the introduction of AI-generated content on the platform and in the marketplace—another extremely sensitive topic brought on by the arrival of these systems inworld. It was a very engaging debate, and I personally wrote on the topic of “identifiability.” Naturally, we’re still at the beginning of this conversation, and there’s a long way to go, but these are the same issues being discussed all over the world. And I too, in my own small way, try to contribute—however modest that may be compared to the giants of AI.

In my opinion, the Terms of Service of virtual platforms need to be updated to provide clear guidelines and rules for the use of AI systems. Setting rules isn’t easy, because, as Philip Rosedale pointed out yesterday, it’s possible to remain anonymous when creating an account. That makes it difficult to enforce any kind of identification tag, unless we rely on the good faith of the person creating the account. I believe this is an area where developers need to make progress, because a system to require the identification of AI avatars can and must be found.

Additional rules should also be introduced regarding privacy—by expanding the current Terms of Service, as well as restrictions on selling AI-generated content in the marketplace.

In short, and this is a proposal, I’d like to make to Linden Lab, there should be a committee of experts formed to produce, within a few weeks, a set of guidelines that can lead to technical adjustments and updates to the Terms of Service. I believe this would be the most effective way to capitalize on the wealth of expertise that emerged during yesterday’s Town Hall, and to adapt the platform to these new developments, but also to the new risks they bring.

Best regards.

Una AI umano-centrica anche nei Mondi Virtuali

Nel corso del meeting di ieri sera organizzato dalla Linden Lab sulle quattro land della Town Hall si è discusso molto sui progetti in corso, e due annunci importanti sono stati fatti: la possibilità di usare il viewer Firestorm in modalità streaming per accedere a Second Life e l’introduzione come Alfa Test di un linguaggio di scripting molto innovativo, il LUA, creato nel 1993 e molto semplice da usare. Faciliterà sicuramente lo scripting, allargando la base di programmatori che attualmente usano il LSL.

Ma quello che mi ha colpito ieri sera non sono stati questi annunci tecnologici ma la presenza nella hall di tantissimi avatar con cartelli che chiedevano di non utilizzare le AI in Second Life. Naturalmente molti hanno suggerito, anche il management della Linden Lab, che l’AI è dappertutto, che può aiutare in tantissimi compiti, dalle traduzioni simultanee alla sicurezza, ecc. Quindi chiudere Second Life agli agenti di AI sembra sicuramente una scelta fuori dai tempi ed autolesionista, quando poi noi stessi abbiamo ormai agenti di AI dappertutto, dai nostri cellulari, ai PC, alle apparecchiature connesse a internet, ai Social Networks e così via. Oggi le AI sono profondamente integrate nelle nostre attività, sia digitali che reali, quindi fare una crociata per “tenerle fuori” è del tutto velleitario e incomprensibile.

Detto questo però, la nostra attenzione si sposta sulle regole: come vanno utilizzate le AI, come evitare che creino danni con le loro scelte, come impedire che diffondano in modo massiccio fake-news, influendo direttamente anche su scelte politiche democratiche, come successe in UK durante il referendum per la Brexit e, ormai giornalmente intervenendo pesantemente sull’informazione, e sulle nostre attività di lavoro e persino nei compiti scolastici che svolgono a casa i nostri figli.

E qui si aprono discussioni a non finire, perchè la questione delle “regole “Regole” è ormai un elemento fondamentale della discussione pubblica quotidiana, anche politica. L’impostazione degli americani è quella di lasciar libera la ricerca, con pochissime regole (vedremo ora la nuova presidenza come le cambierà), per consentire di mantenere la competitività verso la Cina, che sta investendo enormemente in questo settore. La scelta dell’Europa è stata più politica, ma maggiormente aderente alla protezione dei valori etici e umani delle nostre società. Infatti, e dal mese di agosto 2024 che è operativo il cosiddetto “Artificial Intelligence Act“, una regolamentazione europea che definisce i cosiddetti “sistemi ad alto rischio“, indica quali attività sono espressamente vietate, quali sono le precauzioni da prendere quando si sviluppa un sistema di AI, e quali sono gli obblighi che le aziende che li sviluppano e che li utilizzano devono rispettare (https://commission.europa.eu/news/ai-act-enters-force-2024-08-01_it).

Io credo che, come indica il nuovo settoredi ricerca della “Human Centered AI“, i valori umani e la protezione degli individui vadano messi al primo posto, e che se si lasciano briglie sciolte alla ricerca rischiamo anche di finir male, come specie umana. I sistemi di AI possono avere una potenza inimmaginabile, molto superiore a qualsiasi tecnologia precedentemente impiegata, e potrebbero rivelarsi persino un pericolo per la specie umana. Quindi da qui le regole: quali sono le precauzioni da prendere, quali i divieti, e come rispettarli. E’ il grande dibattito in corso oggi.

Per quanto riguarda i Mondi Virtuali, le regole non possono che essere quelle dettate dalle regolamentazioni, e l’AI Act è una pietra miliare su questo terreno, per ora e per il futuro. Quindi, i sistemi di AI devono essere chiaramente identificati, in modo che non ci siano dubbi sull’identità di un Avatar, e chiunque possa sapere con chi ha a che fare, se con un essere umano o con un LLM basato sull’addestramento con i dati che gli sono stati forniti, e con quelli che continuiamo a fornirgli noi.

Altra questione, fondamentale, è il rispetto della privacy e le regole sulla raccolta di dati riguardanti i comportamenti degli Avatar. I dati che è possibile raccogliere sulle abitudini e i comportamenti in rete sono sterminati, e già con i social questo problema è molto rilevante, ma in un Mondo Virtuale ci sono anche i comportamenti personali, le frequentazioni, i dialoghi, e così via, tipici anche del mondo fisico. Il rispetto delle regole è fondamentale per la privacy e per la protezione dei dati personali, in un ambiente virtuale molto di più che su una semplice piattaforma online.

La tecnologia serve a tanto e ci aiuta moltissimo, ma ricordiamoci sempre che l’uso che è possibile farne può essere di ogni tipo, da quelli più utili a quelli più dannosi, e persino letali per l’umanità. Chi ha equiparato la potenza dei sistemi di AI alle armi nucleari, non ha affatto esagerato a mio parere. Quindi quando si parla di “Regole” non storciamo il naso, dobbiamo abituarci ad utilizzarle, per il nostro bene, e ora anche per la nostra sopravvivenza.

Un saluto.

Gli attacchi alle terre di Second Life

L’esistenza di soggetti malevoli, che conducono attacchi diretti alle land in Second Life, è storia vecchia. Ci sono sempre stati individui che per divertimento, interesse, vendette varie hanno portato attacchi tesi a interrompere il servizio in determinate regioni. Si tratta di soggetti che hanno una certa conoscenza dei tool della piattaforma, e che mirano a causare un sovraccarico computazionale su una determinata istanza del simulatore, in modo da provocarne il crash sistemico.

Questi attacchi sono classicamente condotti con degli script abbastanza banali, che mandano in esecuzione delle istruzioni in “loop”, in un circolo senza uscita, in modo da sovraccaricare le risorse assegnate a quell’istanza di simulatore dal server. Un altro sistema è quello dei “megaprims” che invadono tutte le risorse dedicate al building, provocando, anche in questo caso, il sovraccarico delle risorse elaborative assegnate a quella land.

Ci sono ovviamente varie versioni di queste due tipologie di attacco, anche abbastanza complesse, in modo da camuffare gli script “avvelenati” o indurre gli utenti ad accettare payload malevoli che veicolano il software di attacco. La tipologia classica del phishing, usata in questi casi, è abbastanza riconoscibile per gli utenti più avveduti, e quindi si può contrastare facilmente, con condotte prudenti verso “offerte” non ben identificate.

Una ipotesi di studio è poi il cosiddetto “attacco DOS” o anche un DDOS, condotto in questo secondo caso da una rete di macchine bot appositamente compromesse in precedenza. Un attacco di tal genere dovrebbe essere rivolto ai server su cui girano i simulatori di Second Life, e mi sento di escludere in partenza questa ipotesi, dato che dal 2020 è terminata la migrazione dei server della Linden Lab sul Cloud AWS di Amazon, e non basterebbero quattro scannagatti per attaccarli, per i sistemi di difesa che ogni Cloud Services Provider attua in modo molto efficace e professionale.

Un’ultima cosa devo dire, riguardo alla considerazione e alla condiscendenza verso determinati personaggi che seguono questa pratica di attacco, o si organizzano in gang. Il modo migliore per difendersi, come ci hanno insegnato anni di lotta alla criminalità organizzata, è quello di isolarli, di non accettare amicizie ambigue, di non inserirsi in qualche gang, e tantomeno assoggettarsi alla “protezione”, nel caso venisse offerta in cambio di amicizia e condiscendenza, o addirittura assumendoli come “protettori” dietro compenso (“security”). Oltre ad essere moralmente riprovevole, si potrebbe configurare il reato di fiancheggiamento se si scoprisse che trattasi di estorsione, comunque camuffata.

Questa la problematica da affrontare, e ora passiamo alle contromisure.

Innanzitutto, occorre raccogliere informazioni sull’”incidente” e fornire al supporto della Linden Lab tutti i dettagli raccolti, compresi quelli dell’autore dell’attacco, se identificato, e formalizzare un “Abuse Report” per la violazione dei ToS relativi alla sicurezza. Questo passo è fondamentale, per rendere evidente l’esistenza di questi attacchi ed il numero di questi, anche riconducibili a specifici account. Se questi AR non venissero fatti, la Linden Lab non avrebbe modo di venire a conoscenza del problema, e tantomeno dedicare risorse per prevenirne altri. Il numero di AR risulterà quindi determinante per dare ai ticket aperti il giusto livello di priorità, nella coda delle centinaia di richieste che un servizio di supporto riceve tutti i giorni da ogni parte del mondo.

Il Service Management si basa sulle priorità, prima vengono gestiti gli incidenti “catastrofici” (ad esempio falle di sicurezza, caduta di server di un’intera regione, azioni di violazione di normative o leggi vigenti, ecc.), sono i cosiddetti “Major Incident”.

Con minore priorità vengono poi gestiti gli incidenti “gravi”, quelli “lievi” e di seguito quelli “normali”. E ogni azienda ha la sua organizzazione per gestirli nella maniera più efficace. È del tutto evidente che nessuna azienda ha risorse infinite, e deve quindi lavorare per priorità dettate dalla gravità e dall’impatto provocato dall’incidente, pur nel rispetto degli obblighi di servizio.

Aprire un ticket, descrivendo bene le circostanze e la gravità del fenomeno, è fondamentale, e quanti più ticket vengono aperti, più l’incidente diventa grave, sale nella classifica delle priorità, e prima viene gestito. Questa la base di partenza di ogni contromisura, effettuare un AR, nel numero appropriato al numero di incidenti che si verificano.

In seguito all’apertura dei ticket il risultato che ci si potrà attendere sarà quello del “ban” dell’account incriminato, con la perdita dell’identità del personaggio, e di tutte le risorse accumulate nell’inventario del soggetto bannato. Questa è la procedura standard, che per un griefer incallito e organizzato può avere un effetto molto limitato, visto che può creare altri accont e proseguire nella sua attività di attacco. Un danno maggiore gli viene provocato se l’account deteneva nell’inventario beni o script importanti e di valore, in questo caso la perdita sarebbe anche economica. Altro danno, collaterale, è la perdita di un Avatar riconosciuto e rispettato da un certo ambiente.

Quindi il ticket, per quanto indispensabile per le ragioni che abbiamo detto, non basta. A meno che il livello di attacco non acquisisca caratteristiche assimilabili ai reati comuni, come il taglieggiamento, o la violazione palese, e legalmente rilevante, di norme relative alla privacy. Il taglieggiamento fa identificare l’aggressore come appartenente alla categoria dei criminali, per cui possono essere attivate le forze dell’ordine, cosa che dovrebbe essere fatta da chiunque subisca azioni penalmente rilevanti, o che abbiano creato danni economici. Per procedere occorre identificare univocamente l’aggressore reale, con nominativo e località. Dobbiamo ricordare, se ancora fosse necessario, che le leggi dello Stato valgono sempre, anche in ambienti virtuali, e nessuno può contare sull’impunità.

Sono, in questi casi, indagini molto complesse, perché naturalmente non basta l’indirizzo IP dell’attaccante, che di solito è un indirizzo variabile, o mascherato da accessi via VPN, o anche su rete decentralizzata peer-to-peer. Per individuare il soggetto sarebbe necessario aprire una investigazione, e condurre indagini approfondite, anche con il supporto delle autorità competenti. Quindi questa strada è molto lunga e tortuosa, ma alla fine produce danni notevoli all’attaccante, con conseguenza legali ed economiche.

Questi passi, seppure non risolutivi, sono però essenziali, per spingere il gestore del servizio a migliorare le contromisure di tipo software nella difesa delle land, contromisure comunque che sono già parte integrante delle difese possibili su una land.

E veniamo infine alle contromisure immediate e, nella gran parte dei casi risolutive, per contrastare gli attacchi. Sono le misure di sicurezza della land da impostare:

  1. Disattivare gli script
  2. Assegnare il building solo ad uno specifico gruppo di staff
  3. Impostare il tempo di return degli oggetti ad un valore molto basso
  4. Impostare l’accesso ad un gruppo di “amici” limitato
  5. Limitare la complessità degli avatar sulla land ad un valore non “illimitato”
  6. Disattivare la visibilità dell’avatar, dalle impostazioni del territorio, in modo che non ci sia visibilità fuori dalla land
  7. Impedire la riproduzione di suoni da altri avatar esterni al gruppo
  8. Inserire tutti i nominativi dei greafer noti nella black list di land. Opportuno sarebbe lo scambio di informazioni tra gli owner, usate pure il Gruppo di Cybersecurity per scambiarvi i dati
  9. Inserire dei dispositivi di sicurezza sulla land, usando quelli in dotazione o anche acquistati da vendor certificati

Tutte queste cautele vanno graduate a seconda delle necessità, ma sono la barriera di sicurezza più efficace per contrastare gli attacchi. Sarebbe opportuno avere delle land su Mainland, il territorio gestito dalla Linden Lab, piuttosto che affittarle da un real estate privato, e sarebbe anche opportuno avere il controllo di una intera sim, in modo da poter controllare tutte queste impostazioni direttamente, e non tramite il proprietario, non sempre disponibile a adottare queste contromisure.

Il problema naturalmente è il costo, ma credo che con opportune politiche collaborative, di tipo “consortile” tra più owner fidati, si possa procedere ad una ripartizione opportuna della sim in parcel individuali, suddividendo in tal modo il costo. Si avrebbe così il pieno controllo di una intera sim su Mainland.

La sicurezza informatica non ha un unico elemento risolutivo, è fatta da tanti “strati”, ognuno importante, è quella che in Cybersecurity si chiama “Defense in Depth”. Occorre avere pazienza e costanza, e adottare le contromisure necessarie, in modo da poter vivere serenamente l’esperienza virtuale.

Il problema delle interfacce dei Mondi Virtuali

Tra le tante diatribe che aleggiano sul web, nel tentativo di dare una definizione al “Metaverso“, quello della questione interfacce ha assunto un certo interesse. La diatriba è alquanto inconsistente, e va inquadrata nei tentativi, velleitari, di dare una veste di concretezza cercando una esatta definizione di un termine, il “Metaverso” appunto, puramente di fantasia, nato dalla penna di uno scrittore. E’ una delle tante battaglie che non andrebbero mai combattute, perchè basate sul nulla, e che hanno contribuito a dare un’immagine poco chiara dei Mondi Virtuali, ostacolandone l’adozione presso aziende e altre organizzazioni. Lasciando da parte queste discussioni, vediamo però l’aspetto pratico della questione, perchè l’accesso ai sistemi virtuali è importante, dal punto di vista della usabilità e della facilità d’uso di queste piattaforme.

Evidentemente, l’aspetto “immersivo” è fondamentale nella User Experience dei Mondi Virtuali, è quello che contraddistingue questo tipo di esperienza rispetto al web tradizionale, ma da qui a definire un’unica modalità di accesso come legittima, rappresentata dai Visori VR come Meta Quest e Visual-Pro, ce ne corre. Le esperienze d’uso devo essere diversificate, a seconda del contesto e delle esigenze degli utilizzatori. Questo aspetto è fondamentale, perchè il problema che abbiamo oggi, per allargare l’utilizzo dei Mondi Virtuali, è quello di facilitarne l’uso, adeguandolo alle esigenze più diverse. Per decenni l’accesso ai Mondi Virtuali, per gioco o per attività progettuali, è avvenuto utilizzando i classici strumenti di schermo, tastiera e mouse, perchè erano i soli strumenti disponibili. L’introduzione di Oculus Rift nel 2016, da parte della Oculus VR, poi rilevata da Meta, è stato un passo in avanti notevole, subito messo in pratica dalla Linden Lab con la creazione del suo mondo virtuale Sansar nel 2017. E’ uno strumento questo che consente una completa immersività, ma prevede anche diverse controindicazioni.

I limiti di questo strumento sono non solo il costo, ancora non alla portata di tutti, ma anche le modalità di fruizione. Molte persone, infatti, non trovano affatto agevole indossare un Visore di VR per un tempo prolungato, alcuni soffrono anche del cosiddetto “Motion Sickness“, un disagio che può portare a disturbi di equilibrio e a sensazioni spiacevoli nell’uso. E’ un problema limitato a poche persone, che non riescono, per motivi diversi, ad abituarsi all’uso. E’ un problema da non trascurare. A parte il disagio fisico, è poi anche più difficile utilizzare strumenti di lavoro e di produttività indossando un Visore, è difficile usare prodotti software, fogli di lavoro, interrogazioni a Data Base, ecc. Ed è a volte spiacevole, o divertente, a seconda dei punti di vista, vedere gli avatar rappresentati da zombie a braccia roteanti che si muovono nell’ambiente virtuale.

In molti casi le modalità di lavoro non consentono di estraniarsi completamente dall’ambiente circostante, perchè si è in ufficio, o si è in un ambiente condiviso con scarse possibilità di movimento nell’ambiente fisico. E c’è poi la necessità di fare altre cose, mentre si sfruttano le possibilità dell’ambiente virtuale. Stando poi in un ambiente familiare l’estraniarsi completamente non è una sensazione desiderabile, e chi ha figli, o anche bambini piccoli, non desidera escluderli completamente dal proprio ambiente, perchè vedere un figlio che si avvicina per chiedere consigli per i compiti mentre si lavora, è un qualcosa di imprescindibile, per tutti in una famiglia.

Certamente esistono due modalità di fruizione in cui la completa immersività è utile e piacevole, o anche necessaria, e sono l’esperienza di gioco e quella di poter avere un ambiente di simulazione immersiva completa, magari per esercitazioni, o per la formazione all’uso di nuove apparecchiature, mezzi di locomozione, ambienti pericolosi, ecc. In sostanza, tutto dipende dall’uso che se ne vuole fare, e dal modo in cui si vuole vivere l’esperienza immersiva.

Un altro problema da gestire, per quanto riguarda l’accesso, è il tipo di device da utilizzare. L’uso di uno Smartphone non consente un’esperienza immersiva, ed è utile unicamente per gestire attività di servizio e di comunicazione all’interno del Mondo Virtuale, e questo per motivi più che evidenti, data la limitata potenza di elaborazione dei dispositivi e la limitata possibilità di renderizzare ambienti complessi. L’accesso in streaming da browser, invece, può essere una modalità di facile utilizzo, ed è simile al tradizionale accesso da PC per mondi virtuali semplici, in cui la renderizzazione è eseguita in modo efficiente sui server dell’azienda di gestione, magari su Cloud, come il recente esperimento di Second Life, o come altre piattaforme, come Spatial. Si sfrutta con questa modalità la potenza dei server, e non si penalizzano gli utenti che posseggono PC poco performanti per renderizzare sul client.

In conclusione, più viene data flessibilità nell’uso di piattaforme virtuali, più se ne facilita la diffusione e l’utilizzo. Non c’è un solo modo, un modo “migliore” per vivere gli ambienti virtuali, è necessario adeguarne l’accesso alle diverse esigenze e modalità d’uso, per lavoro o per uso ludico. Si tratta, ancora una volta, di privilegiare l’accesso “sociale” e di accessibilità dei Mondi Virtuali, e non lasciarsi fuorviare, in questa direzione, dall’ultimo ritrovato, dalla tecnologia fine a se stessa.

Un saluto.

L’intossicazione digitale

La digitalizzazione della nostra società avanza ormai ad un ritmo esponenziale, e tutte le nostre attività quotidiane si vanno a svolgere, sempre di più, sulla rete internet. Si tratti di utilizzare servizi, di acquistare prodotti, o di informarci su quello che avviene nel mondo, ormai tutto si svolge online, e tutti i processi sociali e delle diverse organizzazioni si sono spostati sulla rete, con un incremento enorme di efficienza e di disponibilità per tutti.

Questo enorme e veloce progresso è accompagnato anche da diversi aspetti negativi, che stanno impoverendo la nostra cultura, le nostre capacità di discernimento e di analisi dei fatti. E non parlo solo della disinformazione e del proliferare delle fake news, parlo proprio di abbassamento del livello culturale delle persone, come effetto perverso della superficialità e della frugalità con cui si accede alle informazioni e alla cultura in generale, utilizzando ormai prevalentemente la rete.

E’ del mese scorso la pubblicazione del rapporto OCSE sugli skills degli adulti, nei vari paesi del mondo, e il risultato dell’indagine è scoraggiante, addirittura disastroso per quanto riguarda l’Italia. Il rapporto è intitolato “Hanno gli adulti le competenze necessarie per vivere in un mondo che cambia?” (https://www.oecd.org/en/publications/do-adults-have-the-skills-they-need-to-thrive-in-a-changing-world_b263dc5d-en.html). Dal rapporto risulta che un quarto degli adulti non è in grado di comprendere un testo semplice, o anche di eseguire dei semplici calcoli. In Italia la percentuale è enormemente superiore, arrivando al 45,6 % di “low performers”. Al contrario, quelli che hanno un alto tasso di alfabetizzazione sono, nella media dei paesi OCSE, del 11,6 %, mentre in Italia sono solo il 5,4 %.

C’è da chiedersi, nel panorama disarmante complessivo, perchè l’Italia si colloca agli ultimi livelli della classifica. Questo dato negativo, purtroppo, da solo non basta a spiegare questa regressione, va anche letto insieme al basso tasso di laureati (20% in Italia, contro il 40% in Europa, la metà), alla stagnazione più che ventennale della produttività, al basso livello dei salari, con stipendi al limite della sopravvivenza, e alla carenza di strutture e di servizi nelle aree meno protette del paese e in vasti strati della popolazione. E poi ci si interroga sul perchè i giovani scappano all’estero, sul basso livello delle nascite, e sul progressivo invecchiamento della popolazione.

Mettiamo da parte i discorsi politici, non è questa la sede perchè meriterebbero una diversa attenzione, e concentriamoci sugli effetti perversi della rete. L’accesso a fonti di informazioni superficiali e poco attendibili pervade ormai la nostra quotidianità, e l’obiettivo delle grandi piattaforme social non è certo quello di promuovere una informazione chiara e affidabile, ma di prolungare la permanenza in rete, propinandoci pubblicità di ogni tipo, che consente loro di accumulare enormi guadagni, pagando, tra l’altro, pochissime tasse, basando le proprie sedi in paesi dalla tassazione molto favorevole. Un ulteriore elemento che fa riflettere è la decisione di Meta di questi ultimi giorni di non utilizzare più servizi di “fact checking“, ma di affidarsi alle comunità dei social per controllare le notizie. Se non fosse grave, ci sarebbe da morire dal ridere. Non che quei servizi funzionassero bene, intendiamoci, ma erano comunque un piccolo elemento di controllo, in una giugla incontrollata.

La responsabilità di informarsi da fonti attendibili, e di formarsi culturalmente, è in capo alle singole persone, ad ognuno di noi. Nessun meccanismo, o ente, o gruppo di studio, può proteggerci da noi stessi. Dobbiamo assumere un approccio responsabile che ci guidi nelle scelte, evitando un ulteriore aumento dell’avvelenamento da Internet.

La chiave di tutto è la Selezione e l’Approfondimento. Se ci interessa qualcosa, dobbiamo andare a leggere le fonti attendibili, imparare ad usare produttivamente i motori di ricerca, a selezionare le fonti che sono accreditate dalla comunità scientifica e dell’informazione più professionale. Il resto tocca a noi, e per esercitare la nostra responsabilità dobbiamo leggere, cercare i libri adatti, fermarci a riflettere sulle cose che accadono.

I libri sono una fonte primaria di informazione, perchè ci consentono un approfondimento ragionato sulle questioni che ci interessano, e ci mettono a disposizione la competenza di chi ha studiato a fondo un certo problema e ne ha pubblicato i risultati, che sono stati poi vagliati e discussi dalla critica e dalla comunità scientifica internazionale. Limitiamo il tempo in rete e aumentiamo il tempo di lettura in sostanza.

La questione dell’informazione è più complessa, perchè si tende a cercare l’informazione “affine”, quella che convalida le nostre convinzioni, spesso sbagliate, e che si avvicina maggiormante ai nostri gusti politici. Il suggerimento classico è quello di selezionare non solo le fonti ritenute professionalmente attendibili, ma aquelle che esprimono pareri diversi dai nostri, per confrontarci e metterci in discussione, evitando bias culturali di cui ognuno di noi è vittima.

E’ un modo complesso di vivere la rete? No, è un modo ragionato e consapevole, perchè tra un pò saremo ridotti a non poter neanche leggere, per evidente incapacità di comprendere il senso di quello che leggiamo. E siamo già al 46,6 % in Italia di “analfabeti funzionali”.

Un saluto.

Buon anno a tutti !

Buona fine 2024 a tutti voi!

Il passaggio da un anno all’altro non è che cambi qualcosa, ma è una occasione, una occasione di riflessione se non di bilanci. Si pensa a quello che si è fatto nell’anno che si chiude, a cosa potremmo cambiare nel nuovo. Si pensa a come le cose del mondo vadano per i fatti loro, su binari che per noi è impossibile controllare. Si guarda con pessimismo e sconforto a quelle cose che non possiamo migliorare, e a volte ci prende la malinconia credendoci impotenti. Il risultato è spesso il “pensare a noi stessi” senza farci intristire dalle cose che succedono intorno. C’è chi “chiude con il passato”, chi conclude che “tanto sono tutti uguali”, o anche “l’è tutto sbagliato, l’è tutto da rifare”. Meccanismi di autodifesa, certo, che tendono a escludere il male da noi, o almeno ad allontanarlo il più possibile. Fino al prossimo bilancio di fine anno… E così il tempo trascorre sempre uguale, anno dopo anno, senza tanti coinvolgimenti, chiusi nel proprio guscio.

Ma le persone sono importanti. Ognuno è collegato agli altri, in modi spesso impercettibili, ma con vite che si intrecciano e si condizionano. Ognuno può influire sui familiari, gli amici, i colleghi, i conoscenti. La rete ha poi amplificato le connessioni, ci ha messo in contatto con gente fisicamente lontana, ha aumentato esponenzialmente le connessioni, e le influenze. E sono aumentati anche i condizionamenti, i fattori positivi e negativi, e il numero di avvenimenti che possono influenzarci, anche nella vita di tutti i giorni.

L’unica possibilità che abbiamo, per non vegetare in una società estranea, è quella di riappropriarci di noi stessi, del nostro ruolo, delle nostre possibilità. Perchè ognuno di noi ha il potere di cambiare le cose che gli stanno intorno, con le azioni, i comportamenti, le influenze. Ognuno di noi è importante, nelle cose che pensa, e nelle scelte che fa. Nulla è irrilevante, neanche il battito d’ali di una farfalla dall’altra parte del mondo. Se riflettiamo su questo, allora le cose possiamo cambiarle, non da soli certo, ma dando il nostro grande contributo, tutti insieme. Se ci isoliamo, le cose cambieranno per conto loro, perchè ci saranno altri a cambiarle, e noi le subiremo, fantasmi indistinti, inconsapevoli e impotenti.

Personalmente sono ottimista, le cose nel 2025 miglioreranno, forse delle guerre finiranno, e il progresso tecnologico dei sistemi di AI ci aiuterà a superare gli steccati. Dal punto di vista personale, poi, il 2024 è stato un anno molto importante, nonostante tutto, e molto positivo. Lo sarà anche il 2025, ne sono certo, e lo sarà anche per voi.

Buon anno a tutti! 🦅

Perchè Linden Lab non riesce a produrre un’App per mobile efficiente?

E’ da circa 4 anni che la Linden Lab sta lavorando per realizzare un’App per smartphone, sia Android che IOS, con risultati non sufficientemente qualitativi per gli utenti. L’App realizzata ha tutte le funzionalità più importanti ma la grafica lascia molto a desiderare, deformando enormemente le figure degli Avatar, così come le performances.

Non avendo contatti diretti con la Linden Lab (spero che nel prossimo meeting di Venerdì 6 novembre ci si possa confrontare), posso solo fare un’analisi tecnica molto superficiale, da osservatore esterno, non conoscendo i dettagli della loro implementazione. Il punto da cui partire è che la potenza elaborativa di uno smartphone, anche dei più moderni e performanti, non può essere neanche lontanamente paragonata a quella di un moderno desktop, sia per il processore, sia per la scheda grafica, che per la RAM. Questo deve porre dei limiti invalicabili alle caratteristiche di qualsiasi App su smartphone, in particolare se si tratta di partire da una esperienza desktop consolidata ed apprezzata.

Inoltre, Second Life utilizza il motore grafico OpenGL, che oggi è ritenuto obsoleto e poco performante, la cui ultima versione, la 4.6, risale al 2017. Esistono motori grafici più moderni ed efficienti, come Vulkan e il DirectX 12, di Microsoft, usato per Xbox, che consentono una gestione diretta delle GPU. Ma oggi, le maggiori piattaforme utilizzano ambienti di sviluppo grafico completi, come Unreal Engine e Unity. L’architettura di base di Second Life è quindi obsoleta e non sfrutta al meglio le potenzialità delle moderne GPU. Naturalmente, cambiare l’architettura comporterebbe investimenti notevoli per una piccola azienda come la Linden Lab, e non voglio neanche pensare a come verrebbe gestita la cosa, considerando l’esperienza dell’App mobile.

Detto questo, e tenendoci stretto il motore grafico obsoleto, è completamente irrealistico pensare di replicare SL su Smartphone conservandone tutte le caratteristiche, e lo sviluppo dovrebbe limitarsi alle caratteristiche fondamentali (chat, inventario, transazioni, un minimo di grafica), come fece a suo tempo Alina Lyvette per Lumiya. Purtroppo Alina non manutiene più da tempo Lumiya, che comunque non era multipiattaforma ma si limitava alla versione Android. Negli ultimi anni il mondo è andato avanti, con le nuove GPU, molto performanti, e gli ambienti di sviluppo grafici.

La scelta da fare per la Linden Lab, considerati i vincoli suddetti, avrebbe dovuto essere minimalista, limitando all’essenziale la grafica, eliminando gran parte dei paesaggi e degli oggetti non essenziali, mentre forse è stata eccessivamente ambiziosa. Si è sempre in tempo per rivedere le scelte tecniche. Se naturalmente si arriva a queste conclusioni. Si potrebbe poi gradualmente migliorare i risultati, ma almeno si offrirebbe agli utenti una esperienza più accettabile.

Si potrebbero poi fare tante altre cose, oltre a cambiare il motore OpenGL, e quello fisico Havok 4 (introdotto nel 2008 in sostituzione del vecchio motore sviluppato da Linden Lab), come ad esempio lasciare sui server in Cloud il lavoro grafico, trasmettendo ai client il flusso dei dati in streaming. Ma qui ci vorrebbero ulteriori investimenti, a meno di non pensare a cedere la piattaforma ad una delle aziende più grandi sul mercato, come ad esempio la Epic Games, che gestisce oggi Fortnite, la più utilizzata di tutte le piattaforme Virtuali, con 350 milioni di utenti mensili !

Occorrono scelte strategiche, con una visione e una prospettiva di lungo periodo, altrimenti Second Life resterà tagliata fuori dai prossimi progressi di questo mercato.