Il primo WordLift Hackathon del 2016!

Questo post racconta il making of di una startup e il “dietro le quinte” dello sviluppo di un prodotto innovativo. 

Sviluppare insieme attorno ad uno stesso tavolo un prodotto come WordLift in questa fase (a qualche mese dal rilascio ufficiale) è un po’ come ritrovarsi in un piccolo café di fine ottocento a Parigi. L’atmosfera, in apparenza rilassata, è figlia di un tempo segnato ormai irreversibilmente dal rapido processo di sviluppo industriale avviatosi…a Parigi nel XVIII secolo e, lo scorso Agosto tra le montagne dell’Abruzzo nel caso di WordLift. Senza spingermi ulteriormente sul parallelismo vediamo velocemente da dove siamo partiti e cosa abbiamo realizzato.

CaHkP6mWIAAiCDO Le sfide principali in questa fase del lavoro coinvolgono quattro ambiti:

  1. Lo sviluppo del software – l’obiettivo è semplice: abbiamo un insieme ben definito di funzionalità da traguardare per la versione che sarà messa sul mercato e dobbiamo risolvere tutti i malfunzionamenti che stanno emergendo dalla fase di test.
  2. La validazione con gli utenti – in questo ambito si tratta di lavorare in un costante one-to-one con i nostri dedicatissimi beta-tester con il duplice obiettivo di valorizzare il loro utilizzo di WordLift e di acquisire tutte quelle informazioni che ci possono aiutare a prioritizzare le attività di sviluppo.
  3. La definizione della strategia di go-to-market – i prodotti innovativi hanno una complessità intrinseca che è legata alla difficoltà di comunicare ai potenziali clienti qual è il bisogno a cui il prodotto risponde. Lavorare sul go-to-market significa definire una strategia per il lancio che sia efficace per un vasto numero di tipologie di utenti.
  4. La definizione dei processi di lavoro – qui si tratta di capire se ed in che modo le attuali modalità di svolgimento del lavoro sono efficaci e se ci sono dei margini di miglioramento. All’inizio, su tanti fronti si procede per tentativi, misurazioni ed iterazioni successive (lean insegna…almeno parte) ma via via il tutto dovrà essere razionalizzato per consentire al team di gestire un numero crescente di utenti.

Ora vediamo cosa abbiamo raggiunto su questi quattro fronti:

Sviluppo

Nel corso dell’hackathon abbiamo lavorato su una serie di bug che ci consentiranno questa settimana di pubblicare la versione 3.4 di WordLift (hurrah!). La nuova versione introduce il nuovo faceted search widget. Questo widget consente di filtrare tutti i contenuti associati ad una determinata entità attraverso la rete delle entità collegate ai diversi articoli: vediamolo in azione in questo articolo.

Le entità sono ora organizzate secondo il criterio delle 4W ed è chiaro – a partire da questo esempio – che le entità dovranno essere ridotte in numero ed ordinate per importanza per evitare che il widget risulti troppo invasivo.

dashboard-wordliftSempre sul fronte dello sviluppo è in arrivo la prima dashboard di WordLift che ci aiuta a scoprire immediatamente le dimensioni del grafo di conoscenza del nostro sito.

In particolare le informazioni che troverete nella bacheca di WordPress sono le seguenti:

  • Numero degli articoli annotati con WordLift,
  • Rating medio delle entità (ovvero la qualità delle entità che abbiamo all’interno del nostro vocabolario)
  • Numero di triple (ovvero tutte le asserzioni – o fatti – formate da soggetto, predicato e valore) che caratterizzano il grafo di conoscenza che stiamo creando con WordLift.

 

Validazione

Nella validazione con gli utenti abbiamo avuto il piacere di lavorare con alcuni di loro e, almeno secondo quanto condiviso in questi giorni, ci siamo resi conto che dobbiamo migliorare le funzionalità di visualizzazione e selezione dati del navigator widget. Si tratta di un componente centrale per consentire ai blogger di introdurre in pagina collegamenti con altri articoli che siano al tempo stesso rilevanti e contestualizzati. Il lavoro è su questo fronte già iniziato.

Go-to-market

Dobbiamo lavorare attentamente nei mesi che verranno per:

  • fare del nostro meglio per fornire agli utenti ciò che è per loro più importante rispetto all’organizzazione dei contenuti che pubblicano sui propri siti
  • comunicare WordLift nel modo più efficace possibile in modo che tutti sappiamo cosa effettivamente stanno cercando dal nostro prodotto

Esiste in questo senso una dialettica molto stringente che lega la roadmap (ovvero quali feature supportare e in che modo) con la comunicazione e il marketing.

Nel caso di WordLift, come per qualunque altro prodotto innovativo, non abbiamo un mercato definito dove è sufficiente adattare il prodotto per raggiungere il migliore compromesso per l’utente: dobbiamo adattare ed incidere sull’intero mercato di riferimento.

Il fatto che i contenuti che produciamo si possano perdere nel mare magnum della comunicazione globale è chiaro a tutti. L’idea che organizzando la nostra conoscenza possiamo risolvere il problema alla radice non è invece affatto scontato.

Siamo abituati a piattaforme e servizi estremamente complessi offerti dai colossi del Web in forma gratuita e l’idea che queste stesse tecnologie possano entrare nel nostro blog è difficile da trasmettere. E’ inoltre evidente che l’unico modo efficace per misurare il successo di WordLift è legato alla capacità di modificare realmente il comportamento di chi lo usa.

Quando abbiamo scoperto, lavorando con Greenpeace Italia, che utilizzando WordLift la redazione ha iniziato ad acquisire una nuova forma di auto-consapevolezza rispetto ai propri contenuti abbiamo capito che ci muoviamo nella giusta direzione (qui un articolo uscito sul magazine della Commissione Europea CORDIS che parla di questi primi risultati).

Processi

20160210_165202

Un primo passo su questo fronte l’abbiamo fatto durante l’hackathon rendendo più accessibili i dati del backend di WordLift al team di sviluppo e supporto. In questo modo possiamo analizzare eventuali problemi relativi all’analisi del testo (la parte indubbiamente più complessa del prodotto) risparmiando tempo e energia.

Il primo hackathon del 2016 si è tenuto a Roma nel “grottino” di InsideOut10.

WordLift è il software utilizzato su questo blog per organizzare e promuovere i contenuti.

 

 

Un importante passo per l’infrastruttura dei dati open Italiani

Si parla molto del valore degli open data nel contesto economico nazionale ed Europeo.

Gli studi Europei più recenti parlano nell’arco di tempo 2016-2020 di un economia diretta pari a 325 miliardi di euro.

Organizzare i dati pubblicati con licenze open significa accelerare i processi di riuso e sviluppare l’infrastruttura necessaria perché si possano raggiungere gli obbiettivi attesi in termini di impatto economico e sociale.

Nel quinquennio 2016-2020 con gli open data ci si aspetta di creare 25.000 nuovi posti di lavoro.

I metadati che descrivono i dati sono alla base dell’infrastruttura nazionale degli open data.

Oggi, un gruppo di lavoro in AgID con il quale collaboriamo ha pubblicato il profilo che descrive con quali metadati devono essere pubblicati i dataset in Italia. Il lavoro è risultato di un’iniziativa Europea che si basa su un vocabolario standard promosso dal W3C: il DCAT ed ora utilizzato dai Paesi dell’Unione. I metadati ci consentono ad esempio di descrivere la frequenza di aggiornamento dei dati, il tema trattato e molte altre informazioni utili, che sono descritte attraverso una sintassi standardizzata ed interoperabile.

Avere uno standard internazionalmente riconosciuto a livello nazionale per pubblicare dati è un “giant leap” nell’economia digitale di questo Paese. Complimenti.

Il profilo standard è pubblico e si può partecipare alla fase di consultazione direttamente dal sito dati.gov.it all’indirizzo: http://www.dati.gov.it/consultazione/dcat-ap_it – trovate inoltre in formato visivo l’ontologia del DCAT-AP_IT.

Alla prossima puntata!

 

WordLift 3.0: Una breve storia semantica – parte 2

Le classificazioni ci aiutano a trovare le cose cercate.

Il web ormai ha una quantità di contenuti tale da rendere impossibile l’applicazione di schemi omogenei di classificazione per organizzare la conoscenza e renderla disponibile; a meno che non si rimanga all’interno di uno specifico dominio (al giorno vengono pubblicati oltre 2.5 M di nuovi articoli).

Gli schemi di classificazione sono strutture che usano entità e relazioni come informazioni aggiunte al contenuto e sono assimilabili a 4 tipi: gerarchica, ad albero, a faccette, per modelli di riferimento (o paradigmi).

L’immagazzinamento strutturato delle informazioni ha il fine ultimo di migliorare la conoscenza umana.

Noi con WordLift 3.0 ci siamo posti l’obiettivo di sviluppare un’applicazione che strutturasse i contenuti per rappresentare contemporaneamente più metodi di classificazione alle macchine: perché queste riescano ad organizzare i contenuti che vengono pubblicati nelle reti digitali in modo da renderle fruibili da molteplici punti di vista.

Considerato l’impasse in cui versavano le tecnologie semantiche introdotto nella parte 1 , abbiamo in una prima fase di analisi escluso il mondo digitale come destinatario obbligatorio della nostra soluzione.

La prima attività ci ha visti quindi volgere lo sguardo verso i sistemi di classificazione che l’umanità ha usato per organizzare le conoscenze prima dell’avvento del computer; per poi arrivare a considerare l’evoluzione delle interfacce a faccette; le tecnologie che relazionano tra loro diversi ambienti web; e quale è il consolidato sul web in merito agli argomenti considerati (interlinking con dbpedia, freebase, geonames, e metodologie richieste dai motori di ricerca per classificare e pubblicare i contenuti).

Le risposte non sono risultate semplici da individuare; soprattutto perchè la componente essenziale tecnologica è in continua e perenne evoluzione. Nel libro Organizzare la conoscenza. Dalle biblioteche all’architettura dell’informazione per il Web … anche questo già citato nel precedente post, ad un certo punto nel cap 2 vengono introdotte le categorie fondamentali, cioè quelle che accomunano più faccette e sono valide per tutte le discipline. Sono introdotte dal matematico indiano Shiyali Ramamrita Ranganathan che per primo intorno al 1930 parlò di questa analisi consistente nello scomporre un argomento nelle sue componenti per poi ricomporlo secondo un codice. Lui scelse 5 categorie fondamentali: lo spazio e il tempo su cui tutti concordano; l’energia che riguarda attività o dinamismo e che nella semantica indica l‘azione’; materia ad esempio di un materiale o sua proprietà; personas per indicare l’oggetto principale di quel contesto anche se non è una persona umana.

Queste categorie sono considerate astratte, ma noi le abbiamo comunque usate nel processo di design delle interfacce da sottoporre all’utenza, ritrovandole integrate nel vocabolario schema.org.

Il software WordLift è direttamente collegato al vocabolario di concetti pubblicato in http://schema.org/docs/full.html che è universalmente riconosciuto, composto ad oggi di circa oltre 1.200 voci raccolte in 9 categorie fondamentali: Action, CreativeWork, Event, Intangible, Medical Entity, Organization, Person, Place, Product.

In questo novembre 2015 ci sono oltre 217 milioni di pagine (url) che contengono al loro interno un totale di oltre 6 miliardi di triple scritte attraverso il vocabolario schema.org.

WordLift 3.0 è un’editor semantico che analizza il contenuto e suggerisce in automatico la metadatazione secondo le categorie del vocabolario schema.org che noi abbiamo, in un certo senso semplificato per l’utenza, raggruppandole in questa prima fase sperimentale in 4 categorie fondamentali: Who (Person, Organization), Where (Place), When (Event), What (CreativeWork, Product, Intangible). L’utente ha comunque la possibilità di aggiungere ‘n entità a quelle suggerite dall’applicazione che andranno a costruire un personale vocabolario interno all’applicazione.

La release successiva, che terminerà la fase sperimentale in gennaio 2016, include la possibilità di variare l’importanza tra le entità per dare corpo alla classificazione gerarchica e ad albero (questo attraverso l’utilizzo della mainEntity prevista da schema.org per marcare gli articoli).

Per il futuro stiamo valutando l’affiancamento della classificazione gerarchica Dewey (Dewey Decimal Classification), diffusa in tutte le biblioteche del mondo.

Questo è l’iter generale che ci ha portato a disegnare una soluzione dove tecnologie semantiche collaborano con le tecnologie di relazione per associare in automatico un set di metadati, o un grafo semantico, ad uno determinato contenuto.

L’individuazione degli sviluppi tecnologici e di servizio per l’utenza non è stato semplice, ma in compenso la maturazione e l’affermazione della cloud Linked Open Data, nonché di dbpedia (freebase, geonames), è stata fondamentale perché l’editor WordLift 3.0 possa produrre dataset riusabili.

 

WordLift 3.0: Una breve storia semantica – parte 1

Nel mondo delle reti digitali quando si usa il termine generico conoscenza è per identificare e giustificare tutte le attività rivolte al miglioramento della raccolta e organizzazione dei dati. Di tutti i tipi.

Migliorare la conoscenza è possibile quando si rendono disponibili le informazioni per molteplici letture e relazioni al fine di interpretare la realtà, fantasticare sul trend, sull’evoluzione, sul futuro possibile per poterlo in qualche modo controllare o dominare.

Nei processi progettuali abbiamo un’attività necessaria, propedeutica in un programma di progetto, chiamata individuazione dello scenario di riferimento. In pratica si tratta di scoprire e assimilare i contesti che fanno da sfondo, o costruiscono la scena dove l’oggetto dello studio come un attore si incastra a raccontare il perché del suo primo piano.

In informatica la conoscenza è parte dell’intelligenza artificiale. In questo settore viene (veniva) cercata l’automazione mediante strategie per tentativi ed errori. Questa metodologia di disegnare lo scenario è detta Knowledge Representation (wikipediaEN). Si tratta di un tipo di rappresentazione simbolica che aveva come limite la difficoltà di relazionare più scenari. Si evolve per colpa del solito Tim Berners Lee, tutt’ora leader del WWW. Lui attraverso il W3C lancia nel 1996 lo standard XML che permette di aggiungere informazioni semantiche ai contenuti, e quindi metterli in relazione. E’ l’inizio del Semantic Web, con la possibilità di pubblicare insieme ai documenti informazioni e dati in un formato che consente l’elaborazione automatica alle macchine.

“La maggior parte del contenuto informativo dell’odierno web è progettato per essere letto dai soli esseri umani …” (sempre Tim Berners Lee) “i computer non hanno il modo per processare il linguaggio di una pagina web”.

Per web semantico si intende un web dove il contenuto è strutturato perché i software possano: leggerlo, rispondere a domande e all’interazione dell’utenza.

Introduzione liberamente tratta da .. e per chi vuole sapere di tutta la storia.

Introdotto il valore di qualsiasi operazione rivolta a sviluppare un sistema che in automatico predisponga e suggerisca una metadatazione da allegare al contenuto per renderlo leggibile alle macchine, rimane da capire e definire: quali sono i componenti di questa strutturazione, o metadatazione? Come estrarre i significanti da un testo uniformemente a prescindere dalla lingua? A quale tipo di categorizzazione ontologica, e quali relazioni devono essere attivate in un contenuto perché questo diventi parte di un semantic web per tutti? Ma soprattutto: come fare tutto questo insieme?

E qui tutto l’ambiente di ricerca e sviluppo che ruota intorno alle tecnologie semantiche si è come arenato. Crediamo che abbia influito alla creazione di questo impasse la mancanza di accordi tra i diversi percorsi scientifici necessari a realizzare una qualsiasi forma di standardizzazione; e anche per via delle differenze tra le lingue e del lessico, spinto dal web stesso e dalle tecnologie distribuite, verso una sorta di multilinguismo ‘local’.

Considerato l’argomento e il contesto di questo post, meglio se compiamo un salto che dal 1986, nascita dei primi linguaggi di markup, passando per il 1998, definizione dello standard XML, ci porta ad oggi novembre 2015. Il salto lo abbiamo fatto, almeno parzialmente, con una query (di seguito descritta) su Wikidata.

La strada che abbiamo intrapreso (considerando che non c’è nel nostro gruppo una competenza scientifica distribuita tra tutti i saperi che è necessario consultare) è compresa tra:

  • accettare che le tecnologie semantiche così come erano state pensate ed applicate non potevano soddisfare i nostri bisogni di far comprendere e ordinare i contenuti alle macchine;
  • ridefinire il contesto in conseguenza dell’affermazione culturale ed economica del mondo open data e della strutturazione dei dataset della cloud Linked Open Data.

Allora memori e come dettato dal logico, matematico e filosofo austriaco Gödel (amato anche nel mondo dell’informatica) che affermava: non si può comprendere un sistema da dentro il sistema stesso; per capirne qualcosa bisogna uscirne e osservarlo da fuori; abbiamo in un primo momento decostruito racchiudendolo in insiemi tutto quello che necessariamente avrebbe fatto parte della soluzione finale e successivamente ci siamo rivolti al mondo precedente quello attuale: il mondo analogico e come questo aveva affrontato e risposto ai problemi di organizzazione e classificazione di grandi quantità di “conoscenze”.

Una ricerca/guida ci è stata di grande aiuto (e ringraziamo per tanto gli autori): Organizzare la conoscenza: dalle biblioteche all’architettura dell’informazione per il web (Claudio Gnoli, Vittorio Marino e Luca Rosati).

La query su Wikidata per ricostruire la storia dei linguaggi di markup

Di seguito la query che potete eseguire con un click (i risultati sono parziali perché abbiamo inserito solo i linguaggi che in Wikidata hanno la data di creazione valorizzata – questo valore è espresso dalla Property:P571).

PREFIX wd: <http://www.wikidata.org/entity/>
PREFIX wdt: <http://www.wikidata.org/prop/direct/>
PREFIX wikibase: <http://wikiba.se/ontology#>
PREFIX p: <http://www.wikidata.org/prop/>
PREFIX v: <http://www.wikidata.org/prop/statement/>
PREFIX q: <http://www.wikidata.org/prop/qualifier/>
PREFIX rdfs: <http://www.w3.org/2000/01/rdf-schema#>

SELECT DISTINCT ?entity ?ml ?sl WHERE {
 ?entity wdt:P31 wd:Q37045 . # ?entity is a markup language
 ?entity wdt:P571 ?sl . # ?sl is the inception date of ?entity
 ?entity rdfs:label ?ml . # ?entity name is ?ml
 FILTER(LANG(?ml) = "it") # ?ml is in Italian
 }
 ORDER by ?sl
 LIMIT 100

…. continua

 

Basta un post di successo per spiegare l’importanza … di WordLift 3.0

Come un post può cambiare l’opinione generale dell’intera Europa (in questo caso l’Unicef aveva parlato dell’importanza dei vaccini)

La tecnologia semantica organizza i contenuti secondo strutture ontologiche condivise, identifica: concetti, relazioni e proprietà. Tutti i siti e i Blog generici o tematici, che da anni dominano anche il mondo dell’informazione professionale, non sono supportati da applicazioni che costruiscono archivi strutturati associando metadati in automatico al momento della pubblicazione. Il risultato è un mare di ‘contenuti momentanei’, postati con linguaggi di gestione legacy, organizzati in forme che richiedono l’intervento delle tecniche di ‘conversione’ dei dati e di attività di marketing digitale, per essere diffuse e trovate dall’utente, anche se per un breve arco di tempo.

Nei dieci anni dalla prima diffusione di internet siamo passati da una fase in cui collegavamo i computer, alla successiva in cui abbiamo linkato le pagine, a quella di oggi che ci chiede di collegare i dati. Il web deve essere in grado di riconoscere il significato dei dati e delle parole pubblicate.

Nel settembre del 2014 internet ha superato il miliardo di siti e nell’estate del 2013 già si contavano 100 miliardi di click al giorno, 55 migliaia di miliardi di link tra tutte le pagine web del mondo. Viene da sé che l’importanza primaria è quella di programmare non solo l’organizzazione dei contenuti pubblicati in un sito in temi, canali e layout classici, ma riprogettare gli stessi perché costruiscano dataset arricchiti di metadati, meglio se fatto secondo le specifiche del W3C per permettere l’integrazione con la cloud Linked Open Data.

Inoltre, gli ‘oggetti tecnologici’ che ci permettono di comunicare e svolgere attività on line non sono più meri ‘strumenti’: sono diventati oramai veri e propri ‘dispositivi culturali’. Sono in grado di evidenziare l’essenza della persona, del posto (luoghi, o territori), delle Organizzazioni di cui fanno parte: private o pubbliche.

I dispositivi danno un significato espresso in dati a contesti informali come lo sono i network, che assumono sempre più una struttura in grado di esprimere la dimensione identitaria e culturale sia del gruppo che del singolo. Possiamo affermare che la nostra vita si snodi in una dialettica di sviluppo che ha sullo sfondo una sequenza di contesti ‘digitali’.

L’insieme di questi contesti e delle funzioni cui questi obbediscono, rispecchia la quotidianità delle forme di vita che in essa si sviluppano, e quindi anche delle direzioni delle traiettorie di sviluppo, e dei metodi di comunicazione usati per condividerla.

I siti internet devono tener in debito conto delle potenzialità espressive e delle modalità d’uso dei dispositivi collegati alle reti digitali. Alcuni usi sono già consolidati, e non solo tra i target giovanili e la ‘generazione touch-screen’.

Nel 2011 abbiamo iniziato lo sviluppo di un Editor Semantico, WordLift, oggi fine ottobre 2015 alla terza release. L’applicazione è distribuita come Plug-in in una delle piattaforme di CMS open source più diffuse al mondo: WordPress. Il modulo è già disponibile su Alfresco e in versione sperimentale su Drupal – è in calendario lo sviluppo dei connettori verso altri CMS.

L’Editor Semantico WordLift 3.0 è sviluppato e automatizzato per consentire la costruzione di dataset open secondo gli standard richiesti dal W3C. Il software suggerisce all’utente già in fase di compilazione di un articolo: le entità, i concetti e le relazioni che classificano il contenuto con le chiavi di lettura presenti negli archivi open data: dbpedia, freebase, geonames, i più famosi.

Questo fa si che le informazioni siano accessibili sotto forma di grafo semantico  (i contenuti testuali diventano dei dati e possono essere così letti dalle macchine e collegati con altri dati).

Il prodotto WordLift 3.0 è in grado di recepire “programmi di verticalizzazione” e predisporre la configurazione dell’arricchimento dei contenuti con i dati necessari al riuso, cioè a rispondere alle richieste di servizio provenienti da applicazioni web esterne, applicazioni per mobile e API.

Se, ad esempio, prendiamo in considerazione l’eventualità di realizzare un sito dedicato agli open data di una Istituzione europea ci poniamo come obiettivo quello di sviluppare una verticalizzazione di WordLift 3.0 con un Dominio Informativo ad hoc e l’inserimento di tutti i vocabolari del settore Pubblico disponibili (es. Eurovoc, Core Public Service, Core Business Vocabulary, DCAT, …), e di ontologie già affermate e/o nuovi standard (criteri o indicatori di performance).

Pubblicare i contenuti sul web usando l’editor semantico WordLift 3.0 vuol dire per tutta l’utenza WordPress organizzare il proprio desk e costruire un archivio strutturato dei propri contenuti compatibile con la cloud Linked Open Data senza ostacolare l’eventuale uso di Licenze commerciali per la distribuzione dei contenuti.

 

Aiuta WordLift 3.0 e le imprese

Su 10 aziende fallite nel 2014, 8 non avevano il sito internet — detto aRimini, Festa della Rete di questo settembre 2015.

L’ 80% delle imprese fallite non aveva un sito internet ci suggerisce che: se non si è compresa la valenza degli infiniti aiuti che le reti digitali danno alle economie d’impresa è meglio non competere nel mondo dove queste sono fondamentali.

Sicuramente al raggiungimento di queste cifre hanno contribuito molte e tante altre dinamiche, ma se solo consideriamo la riduzione di tutti i tipi di costi d’impresa che si hanno con l’uso delle reti digitali, sia interni che per conoscere il proprio mercato, capiremmo molto di queste difficoltà economiche.

Vorrei poter aggiungere molto presto all’intro di questo post, diciamo entro il 2016:

su 10 Organizzazioni che hanno migliorato la conoscenza di se stesse e dei loro clienti, e aumentato del 30% la loro visibilità su internet nell’anno 2015, costruendo contemporaneamente con i propri contenuti dataset open riusabili, 8 usavano WordLift 3.0; l’editor semantico distribuito come plug in dalla piattaforma di CMS WordPress.

L’editor semantico WordLift 3.0 è molto utile alle imprese, alle Organizzazioni sia private che pubbliche, piccole, medie o grandi che siano, semplicemente perchè una volta personalizzato si adatta ai processi interni di acquisizione delle informazioni, alla pubblicazione delle stesse, e al web con le sue dinamiche di metadatazione.

WordLift 3.0 permette all’imprenditore di usare la rete internet senza dover rincorrere esperienze e tecnologie, perchè si pone come un filtro tra l’Organizzazione e le ormai quasi infinite relazioni e connessioni delle reti digitali. Questo significa non programmare la propria presenza in rete in relazione alle tecnologie disponibili, perchè sono in continua evoluzione e necessitano quindi di investimenti eccessivi per chi deve solo sfruttare il web come canale di comunicazione digitale.

WordLift 3.0 allega in automatico un set di metadati ai propri contenuti dando struttura ai propri archivi interni in modo che siano leggibili alle macchine e conformi con la cloud Linked Open Data.

 

WordLift 3.0 e le Smart Cities & Internet of Things

Le basi per un territorio intelligente sono: la pianificazione e la gestione. Dai primi anni del 2000 si discute nell’Urbanistica sull’approccio da dare allo sviluppo delle città introducendo concetti come cityness per indicare strategie e tendenze urbane che si riflettono sulla spazialità e territorialità.

Oggi queste metodologie sono poste alla base del confronto sui rapporti tra cittadini, spazio, comunità, sanità, sicurezza, cultura, arte, alimentazione, turismo, energia. E’ lo sviluppo della città e cittadinanza insieme come forma di rete e collaborazione. Un metodo per disegnare una pianificazione sensata e applicabile delle soluzioni di Smart City.

http://azarchitecture.com/blog/2014/04/defining-the-great-desert-city-part-two-of-four/

http://azarchitecture.com/blog/2014/04/defining-the-great-desert-city-part-two-of-four/

Affrontare e risolvere i problemi delle città diventa sempre più difficile; se ne sono accorti gli Architetti, o i Politici, o quelli più a diretto contatto con le difficoltà che sono i Funzionari Pubblici. La città non è più riconducibile ad un concetto unitario, ma poliedrico.

Pianificare l’uso, le economie e le regole delle città, conformemente ai bisogni della cittadinanza per migliorare la qualità della vita, è impossibile se non si riesce a recepire e confrontare i dati provenienti dal territorio, compresi quelli in risposta all’applicazione delle politiche sociali ed economiche.

Abbiamo bisogno di vedere tutti gli ambienti, che sono oggi aggregati e generalizzati in un’unica rappresentazione Urbanistica (comprese le infrastrutture di rete digitale), associati alla musica (rumore :), alle scienze e alle visioni, alle esperienze, alle condivisioni.

Organizzare l’uso dei sensori a tale scopo aiuterebbe l’affermazione: “stiamo costruendo una Smart City”. Organizzare in dataset la raccolta delle informazioni provenienti da ogni sensore secondo schemi e categorie diffuse nel mondo open data permetterebbe inoltre l’applicazione e il supporto alle Smart Grid di cui il Gruppo Enel è uno dei leader al mondo.

La pianificazione di città e territori necessita di sistemi complessi non riconducibili a modelli prestabiliti; ma detto questo chiariamo che sono diversi i modelli di Smart City basati o integrati con le tecnologie semantiche.

Gli approcci all’argomento sono sia up che down. Quì la presentazione di un data model basato sulla semantica elaborato dal CNR; e quì l’osservatorio italiano sulle best practice.

Se ad esempio prendiamo in considerazione il mondo del turismo (quì ultima inchiesta) notiamo che i colossi del web come Expedia, Hotel.com, Priceline, Trivago, TripAdvisor, lasciano ‘solo le briciole’ all’industria. Oggi prendono 1 miliardo di euro di provviggioni creando un fenomeno di delocalizzazione, che è di per se assurdo se consideriamo che il bene ha una sede fisica che non può essere spostata.

L’uso delle tecnologie semantiche Open Source per erogare un servizio territoriale e riproducibile potrebbe: sia spostare parte delle risorse e migliorare il prodotto turistico, che aiutare lo sviluppo di altre economie digitali legate alle Smart Cities.

WordLift 3.0 è un editor semantico, API e Plugin della piattaforma CMS WordPress che, una volta definiti i punti di aggregazione delle informazioni (things or nodes), può essere impiegato per costruire dataset open, cioè un insieme di dati riusabile, perchè è possibile la relazione con altri dataset.

WordLift 3.0 è una API per catalogare qualsiasi informazione sulla strada o città in cui viviamo, lavoriamo, viaggiamo, studiamo, per poi trasformarla in qualcos’altro.

 

WordLift 3.0 — Born for the internet

Al festival internazionale del giornalismo, aprile 2015, si è discusso del giornalismo digitale e della difficoltà a trovare un nuovo modello che permetta al giornalismo di essere pagato, e quindi sopravvivere.

Zero Calcare invitato al festival perchè con le striscie pubblicate su internazionale.it è stato in grado di coinvolgere i più giovani.

Anche uno scrittore che più influenza i pensieri degli americani riguardo al rapporto con i new media, Jonathan Franzen, ma non ho letto niente di Lui, dice che si ritiene fortunato perchè in quanto romanziere è pagato per i contenuti che produce; mentre chi lavora nel web fa fatica soprattutto se è un freelance.

A dirla tutta ha cattive opinioni sui nuovi tipi di professione di informatori digitali, perché: disinformano, opprimono e uniformano le opinioni. E si riferisce rispettivamente ai: leakers, citizen journalist, crowd sourcing, che danno solo opinioni personali e a volte violente.

Nel web ci sta tutto e personalmente diffido di chi addita come derive le “prove tecniche” sulle potenziali nuove professioni che da 20 anni circa vengono promosse dalla tecnologia, o domandano tecnologie per esprimersi. Sembrano come lamenti di una gioventù passata.

Nel corso del festival del giornalismo digitale un giornalista del Guardian, Aron Pilhofer, in un intervento illustra la loro esperienza, che ha dato come risultati alcune attività necessarie al ridisegno della professione di giornalista. Non si tratta solo di possibili risposte a domande tipo: quale potrebbe essere il nuovo business? come monetizzare, o quale è il valore economico della relazione con i propri lettori? Ma si parla della necessità di “ordinare la redazione”, “nuovo desk”, “live desk”, “visual desk”, e organizzare in: business, national, international la base del loro approccio al mercato.

Il dispositivo di lettura informazioni non è più cartaceo come si evince dalla vecchietta nella foto che segue.

Se si parla di circa 200mila quotidiani al giorno .. on line sono 120milioni (fonte The Guardian), abbiamo una stima dell’offerta di contenuti, ma anche della necessità di riordinare le redazioni digitali al fine di costruire i propri archivi interni in relazione ai temi trattati dalla testata, e che gli stessi siano conformi agli archivi open sul modello dbpedia di internet.

Dobbiamo allo stesso tempo ridare forza alla professione del giornalista dotando la redazione di strumenti in grado di supportare sia la fase di scrittura, che quella di pubblicazione dei contenuti senza richiedere skill tecnici al giornalista digitale. Proprio come auspicato dal compianto da poco David Carr del New York Times.

La personalizzazione dell’editor semantico WordLift 3.0 permette il nuovo design della redazione digitale conforme ai risultati dello studio del Guardian, ma solo per gli utenti della piattaforma di CMS WordPress.WordLIft 3.0 fa passare dall’informazione alla conoscenza evitando il complotto.

 Nota: post già pubblicato su medium/it

 

WordLift 3.0 e l’Oriente nel 3.000 a.c.

Ci sono anche gli altri orientamenti, dipende dove ti metti e verso cosa guardi. Io Maurizio sono nato e vivo in Italia e se devo raccontare della mia specie …: è reale dire che sono figlio di una combinazione infinita di casualità. Già! Solo a pensare alla difficoltà di incontro dei genitori negli anni ‘50, comprendo che per nascere dovevo avere una grande esperienza, anche estetica; una conoscenza appropriata del marketing analogico, soprattutto nei meccanismi di verifica dell’idea o della fattibilità tecnica; dovevo aver definito gli obiettivi, organizzato gli appuntamenti importanti, etc.. Non so in che percentuale abbia immaginato la vita, ma questo dipende da quanto mi sono applicato, se ero al bar o più semplicemente dormivo.

Poi sono nato e l’aria ha scombinato tutto. Non c’è più memoria e la vita risponde: vabbè rifacciamola. Molti anni dopo ho le stesse domande di tutti, un elenco abbastanza corposo, in cima possiamo mettere tranquillamente:chi sono?

In Occidente e comunque verso sud, forse in Perù ad essere precisi, Condori disse a Kantu: se vuoi convertire i tuoi sogni in realtà devi imparare a conoscere te stessae cosa devo fare? .. trovare risposte … e le domande iniziano sempre con quella in cima anche al mio elenco.

Ma torniamo all’Oriente. Per descrivere il grado di casualità della nascita raccontano/vano: Sai quante sono le probabilità di nascita di un essere umano, non in senso metafisico, ma biologico? Nella tradizione buddhista dicono che sono le stesse che una tartaruga incontri un’asse di legno che galleggia in mezzo all’oceano pacifico, nel momento in cui risale per prendere aria.

Ma torniamo a WordLift 3.0, che è un’editor semantico ad uso degli utilizzatori della piattaforma di CMS WordPress: come fa ad essere uno strumento utile a descrivere alle macchine un contenuto metaforico?

Non lo so ancora, bisognerà provare più e tante storie. Ma intanto, per costruire dataset open sugli antichi saperi orientali, sulle corrispondenze tra mente e corpo, e compararli con altrettanti costruiti su nuove scienze come la neurobiologia: è perfetto!

Before i go to sleep di S.J. Watson

 

WordLift 3.0: il software che fa riflettere il post su se stesso. Poi agisce.

Dostoevskij nel suo ‘Memorie dal sottosuolo’ dice che esistono 2 tipi d’uomo: quello d’azione e quello di pensiero.

http://www.scratchbook.net/2013/10/memorie-dal-sottosuolo-Fedor-Dostoevskij.html (della Maria De Biase)

Stiracchiando quà e là questa descrizione potremmo dire che anche i prodotti dell’uomo d’azione sono a loro volta introspettivi e sociali.

Un contenuto web, anche quello con un grado di multimedialità intrinseco elevato, rimane sempre un prodotto del sottosuolo (o sottobosco o dell’uomo di pensiero). Per emergere almeno al piano terra ha bisogno dell’applicazione delle politiche adottate dai motori di ricerca. Altrimenti: nisba! E se per caso si sceglie il passaparola in vece del marketing digitale, scelta piacevole, si rimane sempre nell’area pensiero, ma debole perchè manca della struttura di classificazione usata per gli open data: dbpedia e altro, impedendo di fatto al post la necessaria visibilità.

chi scrive per non essere letto? chi racconta una storia senza voler essere ascoltato?

WordLift 3.0 sviluppato da Insideout10 è un editor semantico che aiuta chi scrive suggerendo relazioni, descrizioni e approfondimenti a seconda del contenuto da pubblicare, e fa tutto questo senza dimenticare di associare i metadati che identificano univocamente il post e lo rendono compatibile con la classificazione LOD, la più riconosciuta e la più diffusa nel web. L’editor semantico tratta il testo del post come fosse parte di un capitolo in un romanzo: ‘che sembra scritto per noi’, che ci fa vedere una parte di noi che non pensavamo potesse essere condivisa da altri, che inquadra come per fare un selfie al post col suo sfondo.

Il software tratta i post come un capitolo di un libro: Li inserisce in una struttura di relazioni, in un racconto; ma la storia rimane sempre dello scrittore.

Linked Open Data

Wordlift 3.0 fa vedere il contesto dove verrà pubblicato il contenuto mettendo in relazione l’archivio interno del blog o sito internet, con tutto il web, che è lo scenario di riferimento.

Chi scrive ha così un potente strumento di supporto alla scrittura: di verifica culturale e statistica, molte volte di scoperta vera e propria; ma niente serendipity se non casuale.

Terminata l’elaborazione, accettati o meno i consigli, il software associa in automatico i metadati suggeriti dalla componente dedicata alla comprensione del testo. Altri metadati possono essere inseriti manualmente, poi si pubblica.

A seconda dell’uso che se ne vuole fare, mettiamo minimale, chiamiamola classificazione tipo SEO — cioè che associa in automatico un set di metadati, è richiesto al giornalista digitale un tempo aggiuntivo alla fase di pubblicazione che non supera il paio di minuti. Per il resto dipende dalla volontà di usarlo o meno come strumento di ricerca per il design del contesto di pubblicazione.

….. continua