Social network, problemi di memoria storica

Quasi il 30 per cento dei contenuti condivisi sulle piattaforme social verrebbe inghiottito negli abissi del web. Erano informazioni cruciali per testimoniare eventi di cronaca come la Primavera Araba

Roma – Nel gennaio del 2011, un vento di rivolta ha iniziato a sconvolgere prima l’Egitto e poi gran parte del Medio Oriente, anticipando la caldissima Primavera Araba. Con un ruolo chiave nella diffusione della protesta popolare, le principali piattaforme social hanno rafforzato la propria posizione nel nuovo ecosistema dell’informazione digitale. Ma cosa è davvero rimasto di tutti quei link della conoscenza?

Hany SalahEldeen e Michael Nelson sono i due autori di un recente report pubblicato dalla Old Dominion University di Norfolk, nello stato della Virginia. Un’analisi approfondita del rapporto tra social media e grandi eventi di cronaca, per uno sguardo nel dettaglio a quello che oggi è il passato cibernetico. In altre parole, quanto materiale condiviso o cinguettato è rimasto disponibile in Rete?

Analizzando una serie di grandi eventi culturali o comunque di cronaca – dalla morte del re del pop Michael Jackson alla paura del virus H1N1 – i due ricercatori universitari hanno analizzato tweet e condivisioni in blu per poi scoprire se i contenuti suggeriti siano effettivamente rimasti online . Risultato: la storia raccontata dai social network è a rischio estinzione.

L’11 per cento dei contenuti linkati sui social media è scomparso – i due ricercatori hanno filtrato le URL e controllato che gli stessi indirizzi non fossero stati modificati – nel giro di un anno. Una percentuale salita a 27 se considerato un periodo di 24 mesi. Generalizzando, il pianeta perderebbe ogni giorno lo 0,02 per cento del totale dei contenuti condivisi sui social network .

Mauro Vecchio

La tua email sarà utilizzata per comunicarti se qualcuno risponde al tuo commento e non sarà pubblicato. Dichiari di avere preso visione e di accettare quanto previsto dalla informativa privacy

  • anon scrive:
    titolo fuorviante
    veramente è una semplice aplicazione di apprendimento supervisionato (l'unica particolarità è l'utilizzo delle onde celebrali come segnale discriminante del pericolo). In questo articolo non ha senso fare paragoni tra cervello e gpu.
  • Ciccio scrive:
    Giusto un dettaglio
    Giusto una curiosità, perché nel titolo di questo articolo si paragona un cervello umano ad una GPU invece che ad una CPU?Le GPU solitamente servono per renderizzare (disegnare) le immagini sullo schermo, no? ANALIZZARE delle immagini invece mi sembra più un lavoro da "generica" CPU.E' vero anche che le GPU moderne possono essere utilizzate anche per eseguire altri tipi di calcoli al posto della CPU... ma comunque nominando GPU il "tipico" lavoro che viene in mente dovrebbe essere quello di "disegnare un'immagine", piu che altro ("analizzare un'immagine" lo farei rientrare in "altro"), no?Lo so, è soltanto una pignoleria... :)
    • Severissimus scrive:
      Re: Giusto un dettaglio
      Credo che l'idea sia che, essendo in questo caso il cervello umano di supporto al sistema che effettivamente elabora i dati, esso sia paragonato ad una GPU, proprio perché, come tu dici, oggigiorno le GPU sono utilizzate come unità di calcolo ausiliarie.
    • ... scrive:
      Re: Giusto un dettaglio
      - Scritto da: Ciccio
      Giusto una curiosità, perché nel titolo di questo
      articolo si paragona un cervello umano ad una GPU
      invece che ad una CPU?la gpu parallelizza le operazioni, cosa che in un certo grado fa ance il cervello. da li' il paragone.
Chiudi i commenti