Perché il 2019 sarà l’anno del mobile marketing (ce lo spiega un’infografica)

Qualunque azienda determinata a definire la propria presenza online attraverso strategie innovative ed efficaci, non può prescindere dal pensare un investimento cospicuo nel mobile marketing. Il 2019 sarà, infatti, l’anno per eccellenza per sviluppare e incrementare un advertising pensato specificatamente per la fruizione mobile e questa infografica ne è la dimostrazione.

I dati parlano chiaro: l’utilizzo degli smartphone da parte degli utenti per visualizzare contenuti online, navigare sui social e informarsi sui motori di ricerca, è in netto incremento rispetto alle azioni effettuate su desktop. Per le aziende, questo si traduce nella possibilità di poter sviluppare sempre più opportunità di presenza pensate per il mobile e nella realizzazione di campagne pubblicitarie su un target eterogeneo e reattivo.

Dal SMS Marketing all’advertising via app, passando per l’attivazione di campagne a seconda della geo-localizzazione dell’utente (proximity marketing) e il reindirizzamento tramite l’interazione con QRCode e Digital Signage.

Il mobile marketing diventa così uno strumento attraverso il quale entrare in contatto con il target desiderato sviluppando strategie multi-canale che consentono un doppio vantaggio: alle aziende, di poter affinare il proprio advertising con campagne conversion-focused sempre più smart ed efficaci; agli utenti, di poter interagire con i brand ottenendo servizi e promozioni personalizzate e affidabili.

Vuoi scoprire tutti i vantaggi di un marketing efficace? Ecco un articolo di approfondimento sulle migliori strategie di web marketing da mettere in pratica da subito!

I vantaggi del mobile marketing: l’infografica

mobile marketing

Source: appgeaks.org

 

Il primo WordLift Hackathon del 2016!

Questo post racconta il making of di una startup e il “dietro le quinte” dello sviluppo di un prodotto innovativo. 

Sviluppare insieme attorno ad uno stesso tavolo un prodotto come WordLift in questa fase (a qualche mese dal rilascio ufficiale) è un po’ come ritrovarsi in un piccolo café di fine ottocento a Parigi. L’atmosfera, in apparenza rilassata, è figlia di un tempo segnato ormai irreversibilmente dal rapido processo di sviluppo industriale avviatosi…a Parigi nel XVIII secolo e, lo scorso Agosto tra le montagne dell’Abruzzo nel caso di WordLift. Senza spingermi ulteriormente sul parallelismo vediamo velocemente da dove siamo partiti e cosa abbiamo realizzato.

CaHkP6mWIAAiCDO Le sfide principali in questa fase del lavoro coinvolgono quattro ambiti:

  1. Lo sviluppo del software – l’obiettivo è semplice: abbiamo un insieme ben definito di funzionalità da traguardare per la versione che sarà messa sul mercato e dobbiamo risolvere tutti i malfunzionamenti che stanno emergendo dalla fase di test.
  2. La validazione con gli utenti – in questo ambito si tratta di lavorare in un costante one-to-one con i nostri dedicatissimi beta-tester con il duplice obiettivo di valorizzare il loro utilizzo di WordLift e di acquisire tutte quelle informazioni che ci possono aiutare a prioritizzare le attività di sviluppo.
  3. La definizione della strategia di go-to-market – i prodotti innovativi hanno una complessità intrinseca che è legata alla difficoltà di comunicare ai potenziali clienti qual è il bisogno a cui il prodotto risponde. Lavorare sul go-to-market significa definire una strategia per il lancio che sia efficace per un vasto numero di tipologie di utenti.
  4. La definizione dei processi di lavoro – qui si tratta di capire se ed in che modo le attuali modalità di svolgimento del lavoro sono efficaci e se ci sono dei margini di miglioramento. All’inizio, su tanti fronti si procede per tentativi, misurazioni ed iterazioni successive (lean insegna…almeno parte) ma via via il tutto dovrà essere razionalizzato per consentire al team di gestire un numero crescente di utenti.

Ora vediamo cosa abbiamo raggiunto su questi quattro fronti:

Sviluppo

Nel corso dell’hackathon abbiamo lavorato su una serie di bug che ci consentiranno questa settimana di pubblicare la versione 3.4 di WordLift (hurrah!). La nuova versione introduce il nuovo faceted search widget. Questo widget consente di filtrare tutti i contenuti associati ad una determinata entità attraverso la rete delle entità collegate ai diversi articoli: vediamolo in azione in questo articolo.

Le entità sono ora organizzate secondo il criterio delle 4W ed è chiaro – a partire da questo esempio – che le entità dovranno essere ridotte in numero ed ordinate per importanza per evitare che il widget risulti troppo invasivo.

dashboard-wordliftSempre sul fronte dello sviluppo è in arrivo la prima dashboard di WordLift che ci aiuta a scoprire immediatamente le dimensioni del grafo di conoscenza del nostro sito.

In particolare le informazioni che troverete nella bacheca di WordPress sono le seguenti:

  • Numero degli articoli annotati con WordLift,
  • Rating medio delle entità (ovvero la qualità delle entità che abbiamo all’interno del nostro vocabolario)
  • Numero di triple (ovvero tutte le asserzioni – o fatti – formate da soggetto, predicato e valore) che caratterizzano il grafo di conoscenza che stiamo creando con WordLift.

 

Validazione

Nella validazione con gli utenti abbiamo avuto il piacere di lavorare con alcuni di loro e, almeno secondo quanto condiviso in questi giorni, ci siamo resi conto che dobbiamo migliorare le funzionalità di visualizzazione e selezione dati del navigator widget. Si tratta di un componente centrale per consentire ai blogger di introdurre in pagina collegamenti con altri articoli che siano al tempo stesso rilevanti e contestualizzati. Il lavoro è su questo fronte già iniziato.

Go-to-market

Dobbiamo lavorare attentamente nei mesi che verranno per:

  • fare del nostro meglio per fornire agli utenti ciò che è per loro più importante rispetto all’organizzazione dei contenuti che pubblicano sui propri siti
  • comunicare WordLift nel modo più efficace possibile in modo che tutti sappiamo cosa effettivamente stanno cercando dal nostro prodotto

Esiste in questo senso una dialettica molto stringente che lega la roadmap (ovvero quali feature supportare e in che modo) con la comunicazione e il marketing.

Nel caso di WordLift, come per qualunque altro prodotto innovativo, non abbiamo un mercato definito dove è sufficiente adattare il prodotto per raggiungere il migliore compromesso per l’utente: dobbiamo adattare ed incidere sull’intero mercato di riferimento.

Il fatto che i contenuti che produciamo si possano perdere nel mare magnum della comunicazione globale è chiaro a tutti. L’idea che organizzando la nostra conoscenza possiamo risolvere il problema alla radice non è invece affatto scontato.

Siamo abituati a piattaforme e servizi estremamente complessi offerti dai colossi del Web in forma gratuita e l’idea che queste stesse tecnologie possano entrare nel nostro blog è difficile da trasmettere. E’ inoltre evidente che l’unico modo efficace per misurare il successo di WordLift è legato alla capacità di modificare realmente il comportamento di chi lo usa.

Quando abbiamo scoperto, lavorando con Greenpeace Italia, che utilizzando WordLift la redazione ha iniziato ad acquisire una nuova forma di auto-consapevolezza rispetto ai propri contenuti abbiamo capito che ci muoviamo nella giusta direzione (qui un articolo uscito sul magazine della Commissione Europea CORDIS che parla di questi primi risultati).

Processi

20160210_165202

Un primo passo su questo fronte l’abbiamo fatto durante l’hackathon rendendo più accessibili i dati del backend di WordLift al team di sviluppo e supporto. In questo modo possiamo analizzare eventuali problemi relativi all’analisi del testo (la parte indubbiamente più complessa del prodotto) risparmiando tempo e energia.

Il primo hackathon del 2016 si è tenuto a Roma nel “grottino” di InsideOut10.

WordLift è il software utilizzato su questo blog per organizzare e promuovere i contenuti.

 

 

WordLift 3.0: Una breve storia semantica – parte 2

Le classificazioni ci aiutano a trovare le cose cercate.

Il web ormai ha una quantità di contenuti tale da rendere impossibile l’applicazione di schemi omogenei di classificazione per organizzare la conoscenza e renderla disponibile; a meno che non si rimanga all’interno di uno specifico dominio (al giorno vengono pubblicati oltre 2.5 M di nuovi articoli).

Gli schemi di classificazione sono strutture che usano entità e relazioni come informazioni aggiunte al contenuto e sono assimilabili a 4 tipi: gerarchica, ad albero, a faccette, per modelli di riferimento (o paradigmi).

L’immagazzinamento strutturato delle informazioni ha il fine ultimo di migliorare la conoscenza umana.

Noi con WordLift 3.0 ci siamo posti l’obiettivo di sviluppare un’applicazione che strutturasse i contenuti per rappresentare contemporaneamente più metodi di classificazione alle macchine: perché queste riescano ad organizzare i contenuti che vengono pubblicati nelle reti digitali in modo da renderle fruibili da molteplici punti di vista.

Considerato l’impasse in cui versavano le tecnologie semantiche introdotto nella parte 1 , abbiamo in una prima fase di analisi escluso il mondo digitale come destinatario obbligatorio della nostra soluzione.

La prima attività ci ha visti quindi volgere lo sguardo verso i sistemi di classificazione che l’umanità ha usato per organizzare le conoscenze prima dell’avvento del computer; per poi arrivare a considerare l’evoluzione delle interfacce a faccette; le tecnologie che relazionano tra loro diversi ambienti web; e quale è il consolidato sul web in merito agli argomenti considerati (interlinking con dbpedia, freebase, geonames, e metodologie richieste dai motori di ricerca per classificare e pubblicare i contenuti).

Le risposte non sono risultate semplici da individuare; soprattutto perchè la componente essenziale tecnologica è in continua e perenne evoluzione. Nel libro Organizzare la conoscenza. Dalle biblioteche all’architettura dell’informazione per il Web … anche questo già citato nel precedente post, ad un certo punto nel cap 2 vengono introdotte le categorie fondamentali, cioè quelle che accomunano più faccette e sono valide per tutte le discipline. Sono introdotte dal matematico indiano Shiyali Ramamrita Ranganathan che per primo intorno al 1930 parlò di questa analisi consistente nello scomporre un argomento nelle sue componenti per poi ricomporlo secondo un codice. Lui scelse 5 categorie fondamentali: lo spazio e il tempo su cui tutti concordano; l’energia che riguarda attività o dinamismo e che nella semantica indica l‘azione’; materia ad esempio di un materiale o sua proprietà; personas per indicare l’oggetto principale di quel contesto anche se non è una persona umana.

Queste categorie sono considerate astratte, ma noi le abbiamo comunque usate nel processo di design delle interfacce da sottoporre all’utenza, ritrovandole integrate nel vocabolario schema.org.

Il software WordLift è direttamente collegato al vocabolario di concetti pubblicato in http://schema.org/docs/full.html che è universalmente riconosciuto, composto ad oggi di circa oltre 1.200 voci raccolte in 9 categorie fondamentali: Action, CreativeWork, Event, Intangible, Medical Entity, Organization, Person, Place, Product.

In questo novembre 2015 ci sono oltre 217 milioni di pagine (url) che contengono al loro interno un totale di oltre 6 miliardi di triple scritte attraverso il vocabolario schema.org.

WordLift 3.0 è un’editor semantico che analizza il contenuto e suggerisce in automatico la metadatazione secondo le categorie del vocabolario schema.org che noi abbiamo, in un certo senso semplificato per l’utenza, raggruppandole in questa prima fase sperimentale in 4 categorie fondamentali: Who (Person, Organization), Where (Place), When (Event), What (CreativeWork, Product, Intangible). L’utente ha comunque la possibilità di aggiungere ‘n entità a quelle suggerite dall’applicazione che andranno a costruire un personale vocabolario interno all’applicazione.

La release successiva, che terminerà la fase sperimentale in gennaio 2016, include la possibilità di variare l’importanza tra le entità per dare corpo alla classificazione gerarchica e ad albero (questo attraverso l’utilizzo della mainEntity prevista da schema.org per marcare gli articoli).

Per il futuro stiamo valutando l’affiancamento della classificazione gerarchica Dewey (Dewey Decimal Classification), diffusa in tutte le biblioteche del mondo.

Questo è l’iter generale che ci ha portato a disegnare una soluzione dove tecnologie semantiche collaborano con le tecnologie di relazione per associare in automatico un set di metadati, o un grafo semantico, ad uno determinato contenuto.

L’individuazione degli sviluppi tecnologici e di servizio per l’utenza non è stato semplice, ma in compenso la maturazione e l’affermazione della cloud Linked Open Data, nonché di dbpedia (freebase, geonames), è stata fondamentale perché l’editor WordLift 3.0 possa produrre dataset riusabili.

 

WordLift 3.0: Una breve storia semantica – parte 1

Nel mondo delle reti digitali quando si usa il termine generico conoscenza è per identificare e giustificare tutte le attività rivolte al miglioramento della raccolta e organizzazione dei dati. Di tutti i tipi.

Migliorare la conoscenza è possibile quando si rendono disponibili le informazioni per molteplici letture e relazioni al fine di interpretare la realtà, fantasticare sul trend, sull’evoluzione, sul futuro possibile per poterlo in qualche modo controllare o dominare.

Nei processi progettuali abbiamo un’attività necessaria, propedeutica in un programma di progetto, chiamata individuazione dello scenario di riferimento. In pratica si tratta di scoprire e assimilare i contesti che fanno da sfondo, o costruiscono la scena dove l’oggetto dello studio come un attore si incastra a raccontare il perché del suo primo piano.

In informatica la conoscenza è parte dell’intelligenza artificiale. In questo settore viene (veniva) cercata l’automazione mediante strategie per tentativi ed errori. Questa metodologia di disegnare lo scenario è detta Knowledge Representation (wikipediaEN). Si tratta di un tipo di rappresentazione simbolica che aveva come limite la difficoltà di relazionare più scenari. Si evolve per colpa del solito Tim Berners Lee, tutt’ora leader del WWW. Lui attraverso il W3C lancia nel 1996 lo standard XML che permette di aggiungere informazioni semantiche ai contenuti, e quindi metterli in relazione. E’ l’inizio del Semantic Web, con la possibilità di pubblicare insieme ai documenti informazioni e dati in un formato che consente l’elaborazione automatica alle macchine.

“La maggior parte del contenuto informativo dell’odierno web è progettato per essere letto dai soli esseri umani …” (sempre Tim Berners Lee) “i computer non hanno il modo per processare il linguaggio di una pagina web”.

Per web semantico si intende un web dove il contenuto è strutturato perché i software possano: leggerlo, rispondere a domande e all’interazione dell’utenza.

Introduzione liberamente tratta da .. e per chi vuole sapere di tutta la storia.

Introdotto il valore di qualsiasi operazione rivolta a sviluppare un sistema che in automatico predisponga e suggerisca una metadatazione da allegare al contenuto per renderlo leggibile alle macchine, rimane da capire e definire: quali sono i componenti di questa strutturazione, o metadatazione? Come estrarre i significanti da un testo uniformemente a prescindere dalla lingua? A quale tipo di categorizzazione ontologica, e quali relazioni devono essere attivate in un contenuto perché questo diventi parte di un semantic web per tutti? Ma soprattutto: come fare tutto questo insieme?

E qui tutto l’ambiente di ricerca e sviluppo che ruota intorno alle tecnologie semantiche si è come arenato. Crediamo che abbia influito alla creazione di questo impasse la mancanza di accordi tra i diversi percorsi scientifici necessari a realizzare una qualsiasi forma di standardizzazione; e anche per via delle differenze tra le lingue e del lessico, spinto dal web stesso e dalle tecnologie distribuite, verso una sorta di multilinguismo ‘local’.

Considerato l’argomento e il contesto di questo post, meglio se compiamo un salto che dal 1986, nascita dei primi linguaggi di markup, passando per il 1998, definizione dello standard XML, ci porta ad oggi novembre 2015. Il salto lo abbiamo fatto, almeno parzialmente, con una query (di seguito descritta) su Wikidata.

La strada che abbiamo intrapreso (considerando che non c’è nel nostro gruppo una competenza scientifica distribuita tra tutti i saperi che è necessario consultare) è compresa tra:

  • accettare che le tecnologie semantiche così come erano state pensate ed applicate non potevano soddisfare i nostri bisogni di far comprendere e ordinare i contenuti alle macchine;
  • ridefinire il contesto in conseguenza dell’affermazione culturale ed economica del mondo open data e della strutturazione dei dataset della cloud Linked Open Data.

Allora memori e come dettato dal logico, matematico e filosofo austriaco Gödel (amato anche nel mondo dell’informatica) che affermava: non si può comprendere un sistema da dentro il sistema stesso; per capirne qualcosa bisogna uscirne e osservarlo da fuori; abbiamo in un primo momento decostruito racchiudendolo in insiemi tutto quello che necessariamente avrebbe fatto parte della soluzione finale e successivamente ci siamo rivolti al mondo precedente quello attuale: il mondo analogico e come questo aveva affrontato e risposto ai problemi di organizzazione e classificazione di grandi quantità di “conoscenze”.

Una ricerca/guida ci è stata di grande aiuto (e ringraziamo per tanto gli autori): Organizzare la conoscenza: dalle biblioteche all’architettura dell’informazione per il web (Claudio Gnoli, Vittorio Marino e Luca Rosati).

La query su Wikidata per ricostruire la storia dei linguaggi di markup

Di seguito la query che potete eseguire con un click (i risultati sono parziali perché abbiamo inserito solo i linguaggi che in Wikidata hanno la data di creazione valorizzata – questo valore è espresso dalla Property:P571).

PREFIX wd: <http://www.wikidata.org/entity/>
PREFIX wdt: <http://www.wikidata.org/prop/direct/>
PREFIX wikibase: <http://wikiba.se/ontology#>
PREFIX p: <http://www.wikidata.org/prop/>
PREFIX v: <http://www.wikidata.org/prop/statement/>
PREFIX q: <http://www.wikidata.org/prop/qualifier/>
PREFIX rdfs: <http://www.w3.org/2000/01/rdf-schema#>

SELECT DISTINCT ?entity ?ml ?sl WHERE {
 ?entity wdt:P31 wd:Q37045 . # ?entity is a markup language
 ?entity wdt:P571 ?sl . # ?sl is the inception date of ?entity
 ?entity rdfs:label ?ml . # ?entity name is ?ml
 FILTER(LANG(?ml) = "it") # ?ml is in Italian
 }
 ORDER by ?sl
 LIMIT 100

…. continua

 

Il nuovo catalogo nazionale Open Data – seconda parte

Questo secondo articolo sulla progettazione del nuovo catalogo nazionale open data introduce le API supportate dal portale, descrive la treemap che consente di navigare i contenuti del sito e introduce alcune delle novità sulle quali stiamo lavorando in queste settimane. Il primo articolo su dati.gov.it lo trovi qui. 

Dove sono le API?

Nella fase iniziale del progetto abbiamo cercato di consolidare la ri-organizzazione del catalogo e di estendere DKAN secondo quanto necessario dai requisiti del progetto; in particolare si è trattato di estendere il modello di organizzazione dei metadati presente in DKAN aggiungendo le organizzazioni (DKAN è pensato per un singolo ente che pubblica dati mentre nel nostro contesto avevamo l’esigenza di gestire i metadati di tante organizzazioni diverse). Inoltre si è trattato di irrobustire l’harvester di DKAN per poter acquisire la grande mole di dati che era presente nel CKAN della versione precedente del portale (seguono maggiori dettagli nei paragrafi seguenti).

Queste attività hanno fatto si che, nella release di Giugno, non fossero ancora presenti le API. Durante l’estate, sempre in collaborazione con AgID, abbiamo ripreso le attività e ri-attivato le API standard di CKAN a cui molti di voi sono già abituati. Si tratta di interfacce consultabili con richieste HTTP che restituiscono risultati formattati in JSON. Per vedere qualche esempio potete fare un check sulla pagina dedicata agli sviluppatori di dati.gov.it. Sostanzialmente ora trovate disponibili due API:

Nell’esempio sopra chiediamo al sistema di indicarci la lista di tutti i dataset presenti nel portale (limitando, con il parametro limit a 10 il numero dei dataset forniti in risposta). Utilizzando i parametri supportati da questa API limit e offset possiamo scaricare l’intera lista di dataset di dati.gov.it.

Dalla lista dei dataset per accedere ai metadati del singolo dataset possiamo invece usare la chiamata:

Passando, questa volta il parametro id (che abbiamo ottenuto nel JSON di risposta ottenuto con package_list) possiamo acquisire i metadati del singolo dataset.  

Scorrere migliaia di dataset in pochi click con la Treemap e utilizzando le API del sito

La Treemap è una visualizzazione di dati che evidenzia le relazioni tra un elevato numero di oggetti utilizzando una codifica a colori e una serie di rettangoli nidificati di dimensioni diverse.

Una treemap colorata utilizza il colore per raggruppare oggetti appartenenti ad una medesima categoria. Le dimensioni dei rettangoli rappresentano invece i valori che intendiamo rappresentare. Vediamo direttamente la Treemap di dati.gov.it.

Partendo dall’analisi fatta sull’insieme dei dataset del catalogo, e dai nuovi criteri di classificazione, abbiamo cercato una soluzione che consentisse una navigazione immediata e al contempo profonda dei dataset disponibili. Creando una treemap interattiva è stato possibile visualizzare i dataset secondo una gerarchia disposta su più livelli dando all’utente la possibilità di scendere e di salire di livello a piacimento. La treemap visualizza un qualsiasi insieme di dati organizzati gerarchicamente. Nel nostro caso abbiamo utilizzato D3.js che è una libreria JavaScript per la visualizzazione di dati dinamici (D3 è l’acronimo di Data-Driven Documents).

Per fornire alla Treemap i dati nel formato richiesto abbiamo realizzato uno script che a intervalli di tempo regolari esegue le seguenti attività:

  1. Chiama le API di dati.gov.it e scarica l’elenco dei dataset con i dettagli relativi al nome, all’organizzazione, al territorio di riferimento e alla categoria tematica (ove presente);
  2. Riorganizza i dati ad albero seguendo una gerarchia che può essere personalizzata di volta in volta. Al momento abbiamo optato per organizzare i dataset secondo la gerarchia:
    territorio -> tema -> organizzazione -> nome (e link al dataset).
  3. Trasmette i dati alla treemap usando il formato JSON utilizzato da D3.

Quando la treemap viene caricata nella pagina si limita a caricare il JSON e offre all’utente la possibilità di navigare l’albero. Il modello di treemap navigabile è ispirato ad una versione sviluppata da Mike Bostock (autore di D3) che aggiunge alcune caratteristiche importanti per un sito come dati.gov.it – vediamo quali:

  • utilizzo dei colori per la categorizzazione dei dataset (nello specifico il colore ora indica se un dataset ha valenza nazionale, comunale, regionale, provinciale o se appartenente ad un ente extra-territoriale)
  • impiego del formato vettoriale SVG per il rendering degli oggetti in pagina
  • dimensioni responsive della treemap, delle sottocomponenti e delle etichette testuali 
  • interattività per navigare in profondità i contenuti passando dal territorio al tema, e dall’organizzazione al singolo dataset

Sulla treemap sono stati poi effettuati i test di funzionamento cross-browser e cross-device che ci hanno portato  ad estendere la versione originale per supportare al meglio Safari ed Internet Explorer.

Ci siamo inoltre assicurati che il livello di accessibilità della treemap fosse WCAG 2.0 (Level AA) e che i colori non ponessero problemi a chi è affetto da daltonismo (di seguito alcuni dei risultati dei test).

colorblind-test-01

colorblind-test-02

La Treemap è Open Source

La zoomable Treemap è stata realizzata da Piero Savastano e la trovate sul GitHub di Insideout10: https://github.com/insideout10/zoomable-treemap

Continua … e nel prossimo articolo parleremo di harvesting e di come i metadati nel catalogo Italiano entreranno in contatto con il nuovo portale open data Europeo. 

L'immagine per questo post è una visualizzazione prodotta da un algoritmo di Alex D. (Ekisto) sui dati delle interazioni (watch, fork e follow) di GitHub.
 

Aiuta WordLift 3.0 e le imprese

Su 10 aziende fallite nel 2014, 8 non avevano il sito internet — detto aRimini, Festa della Rete di questo settembre 2015.

L’ 80% delle imprese fallite non aveva un sito internet ci suggerisce che: se non si è compresa la valenza degli infiniti aiuti che le reti digitali danno alle economie d’impresa è meglio non competere nel mondo dove queste sono fondamentali.

Sicuramente al raggiungimento di queste cifre hanno contribuito molte e tante altre dinamiche, ma se solo consideriamo la riduzione di tutti i tipi di costi d’impresa che si hanno con l’uso delle reti digitali, sia interni che per conoscere il proprio mercato, capiremmo molto di queste difficoltà economiche.

Vorrei poter aggiungere molto presto all’intro di questo post, diciamo entro il 2016:

su 10 Organizzazioni che hanno migliorato la conoscenza di se stesse e dei loro clienti, e aumentato del 30% la loro visibilità su internet nell’anno 2015, costruendo contemporaneamente con i propri contenuti dataset open riusabili, 8 usavano WordLift 3.0; l’editor semantico distribuito come plug in dalla piattaforma di CMS WordPress.

L’editor semantico WordLift 3.0 è molto utile alle imprese, alle Organizzazioni sia private che pubbliche, piccole, medie o grandi che siano, semplicemente perchè una volta personalizzato si adatta ai processi interni di acquisizione delle informazioni, alla pubblicazione delle stesse, e al web con le sue dinamiche di metadatazione.

WordLift 3.0 permette all’imprenditore di usare la rete internet senza dover rincorrere esperienze e tecnologie, perchè si pone come un filtro tra l’Organizzazione e le ormai quasi infinite relazioni e connessioni delle reti digitali. Questo significa non programmare la propria presenza in rete in relazione alle tecnologie disponibili, perchè sono in continua evoluzione e necessitano quindi di investimenti eccessivi per chi deve solo sfruttare il web come canale di comunicazione digitale.

WordLift 3.0 allega in automatico un set di metadati ai propri contenuti dando struttura ai propri archivi interni in modo che siano leggibili alle macchine e conformi con la cloud Linked Open Data.

 

WordLift 3.0 e le Smart Cities & Internet of Things

Le basi per un territorio intelligente sono: la pianificazione e la gestione. Dai primi anni del 2000 si discute nell’Urbanistica sull’approccio da dare allo sviluppo delle città introducendo concetti come cityness per indicare strategie e tendenze urbane che si riflettono sulla spazialità e territorialità.

Oggi queste metodologie sono poste alla base del confronto sui rapporti tra cittadini, spazio, comunità, sanità, sicurezza, cultura, arte, alimentazione, turismo, energia. E’ lo sviluppo della città e cittadinanza insieme come forma di rete e collaborazione. Un metodo per disegnare una pianificazione sensata e applicabile delle soluzioni di Smart City.

http://azarchitecture.com/blog/2014/04/defining-the-great-desert-city-part-two-of-four/

http://azarchitecture.com/blog/2014/04/defining-the-great-desert-city-part-two-of-four/

Affrontare e risolvere i problemi delle città diventa sempre più difficile; se ne sono accorti gli Architetti, o i Politici, o quelli più a diretto contatto con le difficoltà che sono i Funzionari Pubblici. La città non è più riconducibile ad un concetto unitario, ma poliedrico.

Pianificare l’uso, le economie e le regole delle città, conformemente ai bisogni della cittadinanza per migliorare la qualità della vita, è impossibile se non si riesce a recepire e confrontare i dati provenienti dal territorio, compresi quelli in risposta all’applicazione delle politiche sociali ed economiche.

Abbiamo bisogno di vedere tutti gli ambienti, che sono oggi aggregati e generalizzati in un’unica rappresentazione Urbanistica (comprese le infrastrutture di rete digitale), associati alla musica (rumore :), alle scienze e alle visioni, alle esperienze, alle condivisioni.

Organizzare l’uso dei sensori a tale scopo aiuterebbe l’affermazione: “stiamo costruendo una Smart City”. Organizzare in dataset la raccolta delle informazioni provenienti da ogni sensore secondo schemi e categorie diffuse nel mondo open data permetterebbe inoltre l’applicazione e il supporto alle Smart Grid di cui il Gruppo Enel è uno dei leader al mondo.

La pianificazione di città e territori necessita di sistemi complessi non riconducibili a modelli prestabiliti; ma detto questo chiariamo che sono diversi i modelli di Smart City basati o integrati con le tecnologie semantiche.

Gli approcci all’argomento sono sia up che down. Quì la presentazione di un data model basato sulla semantica elaborato dal CNR; e quì l’osservatorio italiano sulle best practice.

Se ad esempio prendiamo in considerazione il mondo del turismo (quì ultima inchiesta) notiamo che i colossi del web come Expedia, Hotel.com, Priceline, Trivago, TripAdvisor, lasciano ‘solo le briciole’ all’industria. Oggi prendono 1 miliardo di euro di provviggioni creando un fenomeno di delocalizzazione, che è di per se assurdo se consideriamo che il bene ha una sede fisica che non può essere spostata.

L’uso delle tecnologie semantiche Open Source per erogare un servizio territoriale e riproducibile potrebbe: sia spostare parte delle risorse e migliorare il prodotto turistico, che aiutare lo sviluppo di altre economie digitali legate alle Smart Cities.

WordLift 3.0 è un editor semantico, API e Plugin della piattaforma CMS WordPress che, una volta definiti i punti di aggregazione delle informazioni (things or nodes), può essere impiegato per costruire dataset open, cioè un insieme di dati riusabile, perchè è possibile la relazione con altri dataset.

WordLift 3.0 è una API per catalogare qualsiasi informazione sulla strada o città in cui viviamo, lavoriamo, viaggiamo, studiamo, per poi trasformarla in qualcos’altro.

 

WordLift 3.0 e le Smart Cities & Internet of Things

Le basi per un territorio intelligente sono: la pianificazione e la gestione. Dai primi anni del 2000 si discute nell’Urbanistica sull’approccio da dare allo sviluppo delle città introducendo concetti come cityness per indicare strategie e tendenze urbane che si riflettono sulla spazialità e territorialità.

Oggi queste metodologie sono poste alla base del confronto sui rapporti tra cittadini, spazio, comunità, sanità, sicurezza, cultura, arte, alimentazione, turismo, energia. E’ lo sviluppo della città e cittadinanza insieme come forma di rete e collaborazione. Un metodo per disegnare una pianificazione sensata e applicabile delle soluzioni di Smart City.

http://azarchitecture.com/blog/2014/04/defining-the-great-desert-city-part-two-of-four/

http://azarchitecture.com/blog/2014/04/defining-the-great-desert-city-part-two-of-four/

Affrontare e risolvere i problemi delle città diventa sempre più difficile; se ne sono accorti gli Architetti, o i Politici, o quelli più a diretto contatto con le difficoltà che sono i Funzionari Pubblici. La città non è più riconducibile ad un concetto unitario, ma poliedrico.

Pianificare l’uso, le economie e le regole delle città, conformemente ai bisogni della cittadinanza per migliorare la qualità della vita, è impossibile se non si riesce a recepire e confrontare i dati provenienti dal territorio, compresi quelli in risposta all’applicazione delle politiche sociali ed economiche.

Abbiamo bisogno di vedere tutti gli ambienti, che sono oggi aggregati e generalizzati in un’unica rappresentazione Urbanistica (comprese le infrastrutture di rete digitale), associati alla musica (rumore :), alle scienze e alle visioni, alle esperienze, alle condivisioni.

Organizzare l’uso dei sensori a tale scopo aiuterebbe l’affermazione: “stiamo costruendo una Smart City”. Organizzare in dataset la raccolta delle informazioni provenienti da ogni sensore secondo schemi e categorie diffuse nel mondo open data permetterebbe inoltre l’applicazione e il supporto alle Smart Grid di cui il Gruppo Enel è uno dei leader al mondo.

La pianificazione di città e territori necessita di sistemi complessi non riconducibili a modelli prestabiliti; ma detto questo chiariamo che sono diversi i modelli di Smart City basati o integrati con le tecnologie semantiche.

Gli approcci all’argomento sono sia up che down. Quì la presentazione di un data model basato sulla semantica elaborato dal CNR; e quì l’osservatorio italiano sulle best practice.

Se ad esempio prendiamo in considerazione il mondo del turismo (quì ultima inchiesta) notiamo che i colossi del web come Expedia, Hotel.com, Priceline, Trivago, TripAdvisor, lasciano ‘solo le briciole’ all’industria. Oggi prendono 1 miliardo di euro di provviggioni creando un fenomeno di delocalizzazione, che è di per se assurdo se consideriamo che il bene ha una sede fisica che non può essere spostata.

L’uso delle tecnologie semantiche Open Source per erogare un servizio territoriale e riproducibile potrebbe: sia spostare parte delle risorse e migliorare il prodotto turistico, che aiutare lo sviluppo di altre economie digitali legate alle Smart Cities.

WordLift 3.0 è un editor semantico, API e Plugin della piattaforma CMS WordPress che, una volta definiti i punti di aggregazione delle informazioni (things or nodes), può essere impiegato per costruire dataset open, cioè un insieme di dati riusabile, perchè è possibile la relazione con altri dataset.

WordLift 3.0 è una API per catalogare qualsiasi informazione sulla strada o città in cui viviamo, lavoriamo, viaggiamo, studiamo, per poi trasformarla in qualcos’altro.

 

Il nuovo catalogo nazionale Open Data

Verso la seconda metà di Marzo di quest’anno abbiamo per la prima volta iniziato a ragionare sull’ipotesi di dare un contributo per rivedere le funzionalità e l’organizzazione del catalogo nazionale degli Open Data Italiani. Questo articolo vuole essere il diario di bordo di quanto svolto sul nuovo dati.gov.it  in termini di design dell’informazione e implementazione tecnologica.

Ci occupiamo, come Insideout10, di open data e linked open data da diversi anni e abbiamo colto la sfida di AgID di ereditare il lavoro svolto dal Formez e da Sciamlab a partire dal 2011 sul catalogo dati.gov.it.

Architettura dell’informazione

Partendo dalla richiesta iniziale di rendere i dataset quanto più accessibili e fruibili ai target di utenza primari identificati dall’Agenzia (cittadini, imprese, professionisti e pubblica amministrazione), il lavoro iniziale è stato quello di analizzare il contesto di riferimento e le modalità di accesso consolidate tra le diverse tipologie di utenza.

[slideshow_deploy id=’266′]

Lo svolgimento di questa parte di analisi lo abbiamo condotto abbinando tecniche miste di analisi dei dati, definizione delle personas, studio dei casi di successo (eh si dobbiamo anche qui ammettere di esserci deliberatamente ispirati al portale degli open data Indiano e da quello Africano invece che rifarci ai più blasonati data.gov.uk e data.gov) e comune buon senso.

La prima treemap navigabileCome startup che lavora in questo settore, siamo a nostra volta “clienti” della soluzione, questo costituisce un punto di vantaggio e un bias da tener sotto controllo. In pratica siamo partiti dal .csv contenente la lista di tutti i dataset presenti originariamente nel catalogo e abbiamo iniziato a visualizzare la struttura dei dati usando una nostra versione personalizzata di RAW (un utilissimo tool di visualizzazione realizzato dal Politecnico di Torino che abbiamo integrato con alcune visualizzazioni provenienti da D3.js per leggere le informazioni aggregate dell’architettura dei siti web e dei dati accesso, keyword e molto altro ancora).

In parallelo abbiamo eseguito manualmente decine e decine di ricerche per analizzare i risultati della ricerca ma anche per raccogliere le combinazioni di keyword, tag e classificazioni pre-esistenti che potevano creare un valore per le nostre personas. E’ un lavoro editoriale che richiede tempo e una cognizione base dei diversi dominii di conoscenza.

Usando la logica del Patchinco (ovvero la costruzione modulare di un albero di classificazione) abbiamo iniziato a definire le logiche di ri-classificazione dell’esistente rispetto alla nuova classificazione tematica che via via prendeva forma. Queste logiche ci hanno consentito di implementare un primo modulo in Drupal per l’acquisizione e la ri-classificazione dei dataset originariamente contenuti in CKAN.
L’organizzazione dei temi è stato il risultato degli incontri con AgID ma anche una mappatura delle diverse tassonomie utilizzate a livello Europeo dai vari portali open data.

Ora per quanto parziale è emersa una nuova logica di ri-classificazione dei dati che mette insieme diversi criteri di accesso alle informazioni.

La nuova classificazione di dati.gov.it

I focus

I focus hanno l’obiettivo di interessare delle comunità trasversali di utenti che accedono al sito con interessi specifici. Nel CMS rappresentano degli aggregati di dataset, di news (e presto anche di app) che possono interessare il target. Ne abbiamo concepiti quattro in prima battuta e aggiunti altri due in corsa. I primi quattro da cui eravamo partiti sono:

  • Smart City (è un tema importante per lo sviluppo economico e l’interesse è in crescita),
  • Dati Geografici (si tratta di un sotto-insieme molto specifico di dataset che hanno un riferimento diretto con il territorio e che si rivolgono tradizionalmente ad una platea di utenti spesso composta da professionisti),
  • Data Journalism (i dati statistici aiutano a raccontare le storie e a produrre informazione basata su fatti concreti)
  • Agenda Open Data (forse il focus più importante di tutti che raccoglie la lista dei dataset identificati come fondamentali dall’agenda digitale del Paese dal 2013 ad oggi – l’obiettivo è quello di esporre in modo chiaro ai cittadini quali dataset sono prioritari e quali di questi sono realmente disponibili).

I due aggiunti in seguito sono stati:

  • Data 4 All (un progetto presentato all’UNICEF che raccoglie alcuni dei progetti Open Data di maggior risalto al momento ovvero Open Expo, Italia Sicura e Soldi Pubblici)
  • Occupazione & Lavoro (la sintesi delle informazioni relative ai livelli occupazionali)

Al momento sono in linea tre focus e speriamo di introdurre anche gli altri tre nei prossimi mesi (questo ovviamente dipenderà dalle valutazioni congiunte di AgID e Formez).  

Perché DKAN al posto di Drupal + CKAN

Effettivamente non è scontata come scelta e vale la pena entrare nel merito. In passato abbiamo lavorato su CKAN e la sua endemica diffusione ne rappresenta il principale punto di forza.

Quando fu concepito originariamente da Dr Rufus Pollock e l’OKFN l’obiettivo era quello di creare uno strumento semplice per pubblicare cataloghi di dataset. Ora le ambizioni di un sito come dati.gov.it come anche quelli di altri cataloghi regionali e/o di settore sono legate al ri-uso dei dati e più in generale alla divulgazione di quanto sia possibile fare con questi dati. Si tratta di favorire l’impiego da parte di tutti dei dati per creare nuove opportunità sul territorio integrando le competenze di tecnici e meno tecnici.

Utilizzare un CMS significa poter trattare i dataset come qualunque altra tipologia di contenuto e abbinarlo ad articoli di approfondimento, applicazioni e molto altro ancora. Analizzando la navigazione dei portali realizzati con CKAN abbinato ad un CMS (Drupal o WordPress) è facile notare come sistemi diversi di navigazione si sovrappongano perché appartenenti a piattaforme diverse. Si veda ad esempio il portale (molto ben realizzato per altro) della Regione Lazio o anche la stessa precedente versione di dati.gov.it – i dati sono accessibili e consultabili con una logica specifica che è di fatto vincolata da CKAN mentre gli altri contenuti rimangono “sospesi” in un’alberatura che è definita nel CMS.

Un CMS consente inoltre un’espressività maggiore in termini di organizzazione dell’architettura delle informazioni e facilità di creazione della presentazione – ma anche una crescita delle funzionalità più organica e meno dispendiosa (nel caso di Drupal legata ai 300+ moduli presenti per questo sistema).

Ora inoltre si trattava di passare da una piattaforma con un harvesting automatico che utilizzava un sistema di crawling per raccogliere e classificare i dati ad un workflow di pubblicazione e gestione centralmente organizzato da AgID e Formez integrable con l’indice della Pubblica Amministrazione. Avere quindi la possibilità di creare dei workflow di acquisizione più strutturati rispetto a quanto offerto da CKAN era un requisito da considerare per lo sviluppo futuro del sistema.     

Last but not least – un comune che ha un budget limitato e usa un WCM open source come Drupal (in Italia sono tantissimi) perché dovrebbe installare una nuova piattaforma e formare il personale?

Continua … e nel prossimo articolo parleremo delle tanto attese API, della treemap utilizzata sulla homepage, delle contribuzioni open source e di altri approfondimenti implementativi. 

La foto di copertina è di Justin Grimes , CC BY-SA 2.0
Il sito dati.gov.it è stato pubblicato in una prima versione il 5 Giugno 2015.
 

WordLift 3.0: il software che fa riflettere il post su se stesso. Poi agisce.

Dostoevskij nel suo ‘Memorie dal sottosuolo’ dice che esistono 2 tipi d’uomo: quello d’azione e quello di pensiero.

http://www.scratchbook.net/2013/10/memorie-dal-sottosuolo-Fedor-Dostoevskij.html (della Maria De Biase)

Stiracchiando quà e là questa descrizione potremmo dire che anche i prodotti dell’uomo d’azione sono a loro volta introspettivi e sociali.

Un contenuto web, anche quello con un grado di multimedialità intrinseco elevato, rimane sempre un prodotto del sottosuolo (o sottobosco o dell’uomo di pensiero). Per emergere almeno al piano terra ha bisogno dell’applicazione delle politiche adottate dai motori di ricerca. Altrimenti: nisba! E se per caso si sceglie il passaparola in vece del marketing digitale, scelta piacevole, si rimane sempre nell’area pensiero, ma debole perchè manca della struttura di classificazione usata per gli open data: dbpedia e altro, impedendo di fatto al post la necessaria visibilità.

chi scrive per non essere letto? chi racconta una storia senza voler essere ascoltato?

WordLift 3.0 sviluppato da Insideout10 è un editor semantico che aiuta chi scrive suggerendo relazioni, descrizioni e approfondimenti a seconda del contenuto da pubblicare, e fa tutto questo senza dimenticare di associare i metadati che identificano univocamente il post e lo rendono compatibile con la classificazione LOD, la più riconosciuta e la più diffusa nel web. L’editor semantico tratta il testo del post come fosse parte di un capitolo in un romanzo: ‘che sembra scritto per noi’, che ci fa vedere una parte di noi che non pensavamo potesse essere condivisa da altri, che inquadra come per fare un selfie al post col suo sfondo.

Il software tratta i post come un capitolo di un libro: Li inserisce in una struttura di relazioni, in un racconto; ma la storia rimane sempre dello scrittore.

Linked Open Data

Wordlift 3.0 fa vedere il contesto dove verrà pubblicato il contenuto mettendo in relazione l’archivio interno del blog o sito internet, con tutto il web, che è lo scenario di riferimento.

Chi scrive ha così un potente strumento di supporto alla scrittura: di verifica culturale e statistica, molte volte di scoperta vera e propria; ma niente serendipity se non casuale.

Terminata l’elaborazione, accettati o meno i consigli, il software associa in automatico i metadati suggeriti dalla componente dedicata alla comprensione del testo. Altri metadati possono essere inseriti manualmente, poi si pubblica.

A seconda dell’uso che se ne vuole fare, mettiamo minimale, chiamiamola classificazione tipo SEO — cioè che associa in automatico un set di metadati, è richiesto al giornalista digitale un tempo aggiuntivo alla fase di pubblicazione che non supera il paio di minuti. Per il resto dipende dalla volontà di usarlo o meno come strumento di ricerca per il design del contesto di pubblicazione.

….. continua