Notizie, novità, approfondimento.

Errore

  • strict warning: Non-static method view::load() should not be called statically in /srv/www/ttsoft/sites/sbw.ttsoft.biz/public/sites/all/modules/views/views.module on line 879.
  • strict warning: Declaration of views_handler_filter::options_validate() should be compatible with views_handler::options_validate($form, &$form_state) in /srv/www/ttsoft/sites/sbw.ttsoft.biz/public/sites/all/modules/views/handlers/views_handler_filter.inc on line 589.
  • strict warning: Declaration of views_handler_filter::options_submit() should be compatible with views_handler::options_submit($form, &$form_state) in /srv/www/ttsoft/sites/sbw.ttsoft.biz/public/sites/all/modules/views/handlers/views_handler_filter.inc on line 589.
  • strict warning: Declaration of views_plugin_style_default::options() should be compatible with views_object::options() in /srv/www/ttsoft/sites/sbw.ttsoft.biz/public/sites/all/modules/views/plugins/views_plugin_style_default.inc on line 25.
  • strict warning: Declaration of views_plugin_row::options_validate() should be compatible with views_plugin::options_validate(&$form, &$form_state) in /srv/www/ttsoft/sites/sbw.ttsoft.biz/public/sites/all/modules/views/plugins/views_plugin_row.inc on line 135.
  • strict warning: Declaration of views_plugin_row::options_submit() should be compatible with views_plugin::options_submit(&$form, &$form_state) in /srv/www/ttsoft/sites/sbw.ttsoft.biz/public/sites/all/modules/views/plugins/views_plugin_row.inc on line 135.

MWC 2018, gli occhiali smart di GlassUp sono anche dispositivi di protezione

01net - 26 febbraio, 2018 - 12:05

Accanto alle grandi multinazionali che approfitteranno del palcoscenico del Mobile World Congress 2018 di Barcellona per annunciare le ultime novità del mondo mobile, relative soprattutto al settore degli smartphone, avranno un loro spazio anche i produttori di wearable, come l'italiana GlassUp.

La realtà modenese sarà ospite presso lo stand di Italtel e mostrerà i propri smartglasses per la realtà aumentata, tutti made in Italy, i GlassUp F4.

Il dispositivo indossabile è pensato appositamente per un utilizzo su shopfloor industriali, e sarà presto certificato come dispositivo di protezione individuale e pronto per la produzione di massa.

Gli F4 sono in vendita dallo scorso febbraio e negli ultimi dodici mesi GlassIUp ne ha prodotti più di un centinaio, vendendoli ad alcune delle più grandi aziende manifatturiere italiane ed europee in contesti di progetto pilota.

I principali casi d’utilizzo li vedono impegnati in manutenzione in remoto, controllo qualità, riconoscimento immagini, gestione magazzino, formazione sul campo di nuovi addetti.

La partecipazione di GlassUp al grande evento catalano avverà grazie alla vittoria di un bando messo a disposizione dalla Commissione Europea come parte dei servizi di accelerazione aziendale dello SME Horizon 2020 e in partnership con Italtel.

GlassUp, infatti, dallo scorso anno, è entrata a far parte di Open Innovation, l'integratore italiano di Italtel ideato con l’intento di sviluppare un ecosistema di relazioni e sinergie tecnologiche volte a promuovere prodotti innovativi sul mercato, attinenti all’industria 4.0.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche iscriviti alla newsletter gratuita.

L'articolo MWC 2018, gli occhiali smart di GlassUp sono anche dispositivi di protezione è un contenuto originale di 01net.

MWC 2018: gli smartphone Alcatel allargano lo schermo

01net - 26 febbraio, 2018 - 11:04

TCL Communication Technology, proprietaria dei brand TCL, Alcatel e BlackBerry, ha presentato all'MWC 2018 di Barcellona sei nuovi smartphone con di display costruiti ad hoc sfruttando la tecnologia delle TV TCL. Tutti i modelli delle serie sono in grado di fornire un’esperienza di utilizzo più moderna con caratteristiche tecniche tipiche dei top di gamma e una maggiore cura nel design.

L’intero portfolio integra alcune novità importanti come il Face Key, la tecnologia di sblocco dello smartphone attraverso il riconoscimento del volto, e nuove caratteristiche della fotocamera per scatti sempre più professionali e facili da condividere sui social.

I nuovi display FullView 18:9 consentono guardare video, serie TV e film in un formato cinematografico.

La nuova line up di Alcatel si compone di un modello della serie 5 (Alcatel 5), tre modelli della serie 3 (Alcatel 3, 3X e 3V) e due modelli della serie 1 (Alcatel 1C e 1X).

Alcatel 5 (prezzo: 229 euro) ha un display FullView 18:9 da 5,7 pollici senza bordi, processore Octa-core, doppia fotocamera frontale con grandangolo a 120° e flash LED intelligente: passa in modo intuitivo dalla modalità ritratto a quella super grandangolare quando rileva più di 2 volti nell’inquadratura.

Alcatel 5 è dotato di Social Mode, un set di strumenti intuitivi per il fotoritocco delle immagini che permettono di scattare foto in modo più divertente ed efficiente. Con Social Square è possibile rivedere le foto scattate di recente in una metà dello schermo mentre il mirino della fotocamera rimane attivo nell'altra metà.

Questo consente agli utenti di guardare le immagini con la stessa rapidità con cui le scattano, permettendo di fare altre foto nello stesso momento. Il collage istantaneo consente di combinare gli scatti migliori in formati predefiniti: il collage viene composto dalle varie foto scattate una alla volta utilizzando il mirino della fotocamera che passa alla foto successiva mentre si avanza nella creazione del collage stesso. In ultimo, la funzione Photo Booth permette di scattare quattro foto di seguito catturandone una al secondo, perfetta per ricordare i momenti più belli e speciali con gli amici!

Alcatel 5 è integrato con la funzione Face Key: un nuovo livello di riconoscimento facciale che consente di sbloccare il device con una semplice occhiata allo schermo. In un processo che richiede meno di mezzo secondo, Face Key scansiona il volto in oltre cento sezioni per garantire una corrispondenza più affidabile.

Lo smartphone ha anche il sensore per il riconoscimento delle impronte digitali, che si trova nella parte posteriore e include altre funzionalità innovative, come lo scatto dei selfie con doppio click e la possibilità di salvaguardare le informazioni sensibili grazie alla modalità privacy. Il sensore, inoltre, è programmabile in modo che ad ogni dito della mano corrisponda un comando di avvio di un'app o di una qualsiasi funzionalità.

Alcatel Serie 3 dispone di diverse caratteristiche chiave come display Alcatel FullView 18:9, SmartCam, Face Key e sensore per il riconoscimento delle impronte digitali. Ha un display immersivo IPS HD+ da 5,5 pollici in un formato ultra-compatto e con una splendida finitura lucida a specchio. Disponibile da aprile in Spectrum Black, Blue e Gold a 149,90 euro.

Alcatel Serie 1 è la linea più conveniente: 99,90 euro. Ha display 18:9 da 5,34 pollici, fotocamera posteriore fino a 16 MP e Android Oreo (Go Edition).

 

TCL ha presentato all'MWC 2018 anche Alcatel 1T, la nuova serie di tablet da 10 e 7 pollici, con Android 8.1 Oreo.

Entrambi i tablet sono dotati del Kids Mode, modalità pensata per i più piccoli, che include applicazioni e contenuti precaricati come giochi, cartoni animati e libri. Questa modalità possiede anche una funzione integrata di Parental Control con interfaccia semplice che offre a mamme e papà la possibilità di impostare limiti di utilizzo del dispositivo per insegnare in modo educativo ai piccoli di casa come fruire della tecnologia. Inoltre, la serie di tablet 1T include la modalità Eye Care, progettata per filtrare la luce blu al fine di alleviare l'affaticamento degli occhi e avere la migliore esperienza visiva possibile, indipendentemente dall'ora del giorno o della notte.

Con connettività Wi-Fi, Alcatel 1T è dotato di un display IPS da 10.1 pollici e ha un peso di soli 425g che lo rendono il tablet più leggero in queste dimensioni e in questa fascia di prezzo.

È equipaggiato con una batteria da 4000mAh che assicura a tutta la famiglia lunghi momenti di intrattenimento, giochi e produttività fino 8 ore con una sola carica, 16 GB di memoria interna e memoria microSD espandibile fino a 128 GB. Inoltre, è disponibile anche una tastiera Bluetooth opzionale con cover in pelle, per rendere la digitazione dei tasti più rapida e semplice, proteggendo allo stesso tempo il tablet da graffi, cadute e polvere.

Il tablet Alcatel 1T da 7 pollici con connettività Wi-Fi è incredibilmente compatto, leggero e sottile con un peso di 245g e uno spessore di 9,15mm, perfetto da condividere con tutta la famiglia! La batteria da 2580mAh offre fino a 430 ore in standby e 7 ore di utilizzo, per divertirsi davanti a tantissimi film, serie TV, cartoni animati e tanto altro ancora.

Alcatel 1T da 10 pollici e Alcatel 1T da 7 pollici saranno disponibili tra il secondo e il terzo quarter rispettivamente a € 99,90 e € 69,90, entrambi nei colori Premium Black e Bluish Black.

 

 

 

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche iscriviti alla newsletter gratuita.

L'articolo MWC 2018: gli smartphone Alcatel allargano lo schermo è un contenuto originale di 01net.

Alberto Bastianon, Dell EMC: il cloud non è un luogo, è un modo

01net - 26 febbraio, 2018 - 11:00

"Il tema su cui ci si deve confrontare parlando di Pmi è che gli investimenti in tecnologia sono mediamente più vecchi di quelli dei competitor nell’altra parte del mondo. E che spesso le aziende italiane sono concentrate sull’ottimizzazione del prodotto più che sulla revisione dei processi, sia organizzativi sia procedurali interni. Oggi probabilmente è il momento di fare quel salto per poter competere, non più di fare una battaglia di retrovie e difesa ma piuttosto di avanguardia. Questo richiede degli investimenti molto più mirati in una logica di evoluzione, per trovare nuove aree di business e nuovi modi di fare business. Tutto ciò implica lo sfruttamento delle nuove tecnologie. Ma per farci che cosa?"

Questa la provocatoria domanda posta da Alberto Bastianon, pre-sales manager di Dell EMC, alla Tavola Rotonda Outlook 2018 organizzata da 01net.

"Molti pensano che il cloud sia un luogo – ha aggiunto Bastianon –. Ma il cloud è un modo, un’opportunità da sfruttare. Dobbiamo chiedereci che vantaggi porta nel modo di fare business. Noi crediamo che le tecnologie a tutti i livelli ci siano. I data center evolvono e un approccio di software defined, di iper convergenza, di integrazione di ambienti ibridi dà la flessibilità per poter spostare gli applicativi in modo efficace, ma serve un modello di business. Inoltre, l’approccio ai dati deve essere esteso, edge e cloud devono essere un continuum".

La sicurezza deve essere predittiva

"La sicurezza diventa sempre di più un approccio olistico di governance di tutti i sistemi e di tutti i processi – ha precisato Alberto Bastianon – e deve diventare predittiva e legata al contesto di business perché oggi difendersi dall’attacco non basta più e l’impatto sul business può essere significativo".

"I temi dell’infrastruttura in senso più lato, della definizione di come voglio innovarla, dell’integrazione, di come voglio far lavorare le persone, di come voglio governare e mettere in sicurezza per noi sono strettamente interconnessi. Ed è su questi temi che come azienda lavoriamo", ha concluso Bastianon.

Nel video seguente Alberto Bastianon racconta in meno di 60 secondi su cosa dovrebbero puntare le Pmi secondo Dell EMC per ottenere un reale vantaggio dalla trasformazione digitale.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche iscriviti alla newsletter gratuita.

L'articolo Alberto Bastianon, Dell EMC: il cloud non è un luogo, è un modo è un contenuto originale di 01net.

MWC 2018: Samsung Galaxy S9, la comunicazione basata su immagini

01net - 26 febbraio, 2018 - 10:08

Samsung Electronics ha presentato all'MWC 2018 di Barcellona i nuovi Samsung Galaxy S9 e S9+, smartphone con cui la società dice di voler ridefinire il modo di comunicare e interagire, dato che sempre più spesso oggi le persone comunicano e si esprimono attraverso immagini, video ed emoji.

I Galaxy S9 e S9+ dispongono della fotocamera più avanzata di Samsung: con un nuovo obiettivo con doppia apertura focale, ha una sensibilità elevata per foto perfette in ogni condizione di luce e consente di realizzare video in super slow-motion, acquisendo 960 fps (frames per second).

Grazie al rilevamento automatico del movimento, una caratteristica intelligente che rileva i movimenti all’interno di un fotogramma e inizia a registrare automaticamente: l’utente deve solo decidere l’inquadratura. Dopo aver acquisito il video in super slow-motion, è possibile selezionare una musica di sottofondo tra 35 diverse opzioni o aggiungere un brano dalla propria playlist preferita. È anche possibile creare, modificare e condividere facilmente file GIF con un semplice tocco, scegliendo fra tre divertenti stili di loop per riprodurre l’azione nel modo desiderato.

Quanto costano i nuovi Galaxy

Galaxy S9 e S9+ saranno disponibili a partire dal 16 marzo 2018 nelle colorazioni Midnight Black, Coral Blue e nella nuova tonalità Lilac Purple al prezzo consigliato, rispettivamente di 899 e 999 euro. Chi li acquista durante il periodo di prenotazione, entro il 15 marzo, potrà accedere al programma di Supervalutazione, che offrirà la possibilità di restituire il proprio smartphone usato ottenendo fino a 450 euro di contributo. Chi prenoterà Galaxy S9 o S9+ entro il 7 marzo, potranno riceverlo a partire da una settimana prima della data ufficiale di arrivo sul mercato.

Le fotocamere di Galaxy S9 e S9+ hanno un sensore Super Speed Dual Pixel con potenza di elaborazione e memoria dedicate, in grado di combinare fino a 12 fotogrammi in uno scatto per la migliore qualità fotografica possibile.

Le caratteristiche della fotocamera di Galaxy S9 e S9+ includono anche Bixby, l’assistente personale di Samsung, che utilizza la realtà aumentata e tecnologie di deep learning per fornire informazioni utili sull’ambiente circostante. Con il rilevamento e il riconoscimento degli oggetti in tempo reale, Bixby genera istantaneamente informazioni direttamente nella parte superiore dell’immagine che la fotocamera sta inquadrando. È possibile tradurre lingue straniere e convertire valute in tempo reale con Traduzione Live, ottenere informazioni sui dintorni, acquistare prodotti visti nel mondo reale e monitorare le calorie dei cibi.

Disponibili anche nuovi Emoji personalizzati. Galaxy S9 e S9+ hanno altoparlanti stereo, realizzati in partnership con AKG, all’audio surround Dolby Atmos e un Infinity Display ancora più luminoso. Le cornici sottilissime e la risoluzione Quad HD+ Super Amoled permettono un’esperienza visiva immersiva in qualsiasi condizione di luce.

Galaxy S9 e S9+ sono i primi smartphone a supportare la nuova app SmartThings e sono l’hub centrale per la gestione di ogni aspetto della vita connessa. Per chi è costantemente in movimento, la nuova Samsung DeX consente di collegare uno schermo di grandi dimensioni al telefono, e grazie al nuovo sistema di alloggiamento DeX Pad, di espandere l’esperienza mobile con migliori funzionalità di modifica dei documenti o perfino giochi a schermo intero. Con DeX Pad gli utenti possono anche trasformare Galaxy S9 e S9+ in una tastiera touch e un touch pad.

I nuovi Galaxy ora supportano l’espansione della memoria interna con micro-sd anche da 400 GB e sono dotati dei più recenti processori, per prestazioni elevate e una migliore elaborazione delle immagini.

Per la sicurezza, grazie a Knox 3.1 i Galaxy S9 e S9+ supportano tre diverse opzioni di autenticazione biometrica (riconoscimento dell’iride, delle impronte digitali e del viso), per scegliere il metodo migliore per proteggere il dispositivo e le applicazioni. In più grazie alla nuova funzione Scansione Intelligente, Galaxy S9 e S9+ sono in grado di combinare in modo avanzato i punti di forza della scansione dell’iride e della tecnologia di riconoscimento del viso per sbloccare il telefono comodamente e in modo rapido in qualsiasi ambiente.

Di seguito, le specifiche di prodotto di Samsung Galaxy S9 e S9+

 

  Galaxy S9 Galaxy S9+ OS Android 8.0.0 (Oreo) Display 5.8-inch Quad HD + Curved Super AMOLED, 18.5:9, (570ppi) 6.2-inch Quad HD + Curved Super AMOLED, 18.5:97, 8 (529ppi)

  Body 147.7mm x 68.7mm x 8.5mm, 163g, IP68 158.1mm x 73.8mm x 8.5mm, 189g, IP689 Camera Rear: Super Speed Dual Pixel 12MP AF sensor with OIS (F1.5/F2.4)

Front: 8MP AF (F1.7) Rear: Dual Camera with Dual OIS

-      Wide-angle: Super Speed Dual Pixel 12MP AF sensor (F1.5/F2.4)

-      Telephoto: 12MP AF sensor (F2.4)

-      Front: 8MP AF (F1.7) AP 10nm, 64-bit, Octa-core processor (2.7 GHz Quad + 1.7 GHz Quad) Memory 4GB RAM

64GB + Micro SD Slot (upto 400 GB)

  6GB RAM

64GB + Micro SD Slot (upto 400GB)11

  SIM Card Single SIM:  Nano SIM

Dual SIM (Hybrid SIM): Nano SIM + Nano SIM or MicroSD slot Battery 3,000mAh 3,500mAh Fast Wired Charging compatible with QC 2.0

Fast Wireless Charging compatible with WPC and PMA Network Enhanced 4X4 MIMO / CA, LAA, LTE Cat.18 Connectivity Wi-Fi 802.11 a/b/g/n/ac (2.4/5GHz), VHT80 MU-MIMO, 1024QAM, Bluetooth® v 5.0 (LE up to 2Mbps), ANT+, USB type-C, NFC, Location (GPS, Galileo, Glonass, BeiDou) Payment NFC, MST Sensors Iris sensor, Pressure sensor, Accelerometer, Barometer, Fingerprint sensor, Gyro sensor, Geomagnetic sensor, Hall sensor, HR sensor, Proximity sensor, RGB Light sensor Authentication Lock type: pattern, PIN, password

Biometric lock type: iris scanner, fingerprint scanner, face recognition, Intelligent Scan: multimodal biometric authentication with iris scanning and face recognition Audio Stereo speakers tuned by AKG, surround sound with Dolby Atmos technology,

Audio playback format: MP3, M4A, 3GA, AAC, OGG, OGA, WAV, WMA, AMR, AWB, FLAC, MID, MIDI, XMF, MXMF, IMY, RTTTL, RTX, OTA, APE, DSF, DFF Video MP4, M4V, 3GP, 3G2, WMV, ASF, AVI, FLV, MKV, WEBM

 

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche iscriviti alla newsletter gratuita.

L'articolo MWC 2018: Samsung Galaxy S9, la comunicazione basata su immagini è un contenuto originale di 01net.

25 maggio, il giorno del GDPR: una guida di orientamento per le piccole imprese

01net - 26 febbraio, 2018 - 10:07

Il 25 maggio il GDPR darà il "mortal sospiro" all'abitudine delle aziende di delegare al fornitore di servizi tutte le problematiche relative ai dati.

Secondo il Regolamento europeo sul trattamento dei dati personali, infatti, l’azienda come Titolare del trattamento dei dati personali ne risponde sempre e comunque.

Titolare e Responsabile sono considerati complici a eguale titolo.

Cosa deve fare quindi il Titolare del Trattamento (assistito dal Responsabile del trattamento)?

Prima di tutto deve censire i dati personali (attenzione: la norma non prende in considerazione i dati relativi a persone giuridiche) di cui dispone: quando e come li ha ottenuti, per quali ragione li ha chiesti, a quale trattamento sono stati o saranno soggetti, chi opererà questo trattamento, se e come saranno condivisi.

Giudice di me stesso

Un "Ei fu" si impone anche per l'abitudine italiana di giocare a rimpiattino con l'Autorità. Il GDPR infatti assegna al Titolare il compito di chiedersi se ha il diritto di acquisire e trattare questi dati, bilanciando i suoi diritti (e fare business è un diritto come altri) con i diritti della persona alla quale appartengono i dati (l'interessato secondo il gergo del Regolamento europeo 2016/679).

Nel bilanciamento occorre considerare da una parte i rischi che l'interessato corre (per esempio se i suoi dati venissero divulgati) dall'altra le misure di sicurezza prese per prevenire questi rischi. Nel caso del GDPR non c'è un elenco di cose da fare o proibite. Ci sono dei criteri da seguire “e tu Azienda sei abbastanza grande da giudicare se sei nel tuo diritto o meno” dice in pratica il GDPR a ogni organizzazione, piccola o piccolissima che sia.

Il consenso può non esserci    

È questo bilanciamento, e non il consenso come spesso si sente dire, il cuore del GDPR. Certo, dal 25 maggio in poi i consensi andranno redatti secondo certe formule (saranno praticamente da rifare tutti i moduli presenti su carta e su web) e dovranno essere arricchiti di molte informazioni scritte in modo chiaro.

Anche sui cookie occorrerà lavorare. Ma non è detto che i dati raccolti in precedenza debbano essere cancellati o utilizzati solo dopo aver richiesto un esplicito consenso agli interessati. La regola del pollice al riguardo è "l'interessato sarebbe sorpreso di sapere che il Titolare possiede e tratta questo o quel dato personale?".

Se la risposta è no: per esempio perché il dato rilasciato era funzionale all'esecuzione del servizio richiesto, allora non c'è nessun problema il consenso è soft vale a dire implicito. Al massimo si avvertirà l’interessato che l’organizzazione dispone dei tali dati e intende utilizzarli in un certo modo per certe ragioni.

Contratti dettagliati

Una volta definiti i flussi dei dati personali, il diritto di utilizzarli e aggiornati i consensi, Titolari e Responsabili dovranno definire i loro rapporti sulla base di contratti molto dettagliati.

Il contratto è l'unico documento che permette davvero al Titolare di ridurre le sue responsabilità nel trattamento dati.

Nel libro che Alberto Pattono ha autoprodotto sull'argomento, "GDPR, lo stretto indispensabile per le Pmi", e che è disponibile su Amazon, è proposto un contratto tipo che occupa diverse pagine.

Il contratto discende dal registro dei dati e spiega semplicemente chi fa cosa, perché, come e quando. Il contratto potrà indicare nel dettaglio le misure di minimizzazione del rischio previste.

Ad esempio pseudonomizzazione, cancellazione dei dati inutili, date di scadenza automatiche dei dati e backup.

Anche l'importante e complesso capitolo della distribuzione di dati su cloud andrà ben chiarito in sede di contratto, così come andranno definiti gli accordi che prevedono la condivisione delle informazioni con terzi.

DPIA e formazione

Il 25 maggio il GDPR non impone ai Titolari di stendere una DPIA (una valutazione di impatto relativa a un singolo trattamento o a più trattamenti).

Circola l’idea che la DPIA possa essere redatta solo da un consulente esperto, un DPO. Non è sempre vero. Anzi per una piccola impresa il modo migliore per dimostrare l’adesione al GDPR è proprio redigere una mini-DPIA, vale a dire un documento a uso interno che elenca nel dettaglio i flussi dei dati, le lavorazioni a cui sono soggetti, gli utilizzi che ne sono stati fatti o se ne intende fare, i rischi per la privacy dell'interessato e le misure messe in atto per minimizzarli, magari aggiungendo la modulistica relativa a ogni interazione con persone fisiche.

Questo documento, anche se magari riempie decine di pagine, si stende facilmente, quasi discende in modo naturale, dalla documentazione precedente.

Un documento di questo tipo poi è indispensabile per effettuare la formazione del personale che a qualunque titolo interviene nel trattamento dati. Insomma il segreto della adesione al GDPR è descrivere, descrivere, descrivere.

 

 

 

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche iscriviti alla newsletter gratuita.

L'articolo 25 maggio, il giorno del GDPR: una guida di orientamento per le piccole imprese è un contenuto originale di 01net.

Microsoft pensa a blockchain per proteggere i dati degli utenti

01net - 26 febbraio, 2018 - 09:05

Microsoft ha rivelato che intende utilizzare blockchain per memorizzare e gestire in modo sicuro le identità digitali, a partire da un esperimento con l'applicazione Microsoft Authenticator.

La società ritiene che la tecnologia mantenga la promessa come alternativa superiore alle persone che concedono il consenso a decine di applicazioni e servizi e che i loro dati di identità siano diffusi tra più fornitori.

Con il modello esistente le persone non hanno il controllo sui loro dati di identità e sono esposte a violazioni dei dati e furti di identità.

Invece con blockchain sarebbe possibile memorizzare, controllare e accedere alla loro identità in un hub digitale crittografato, spiega Microsoft in un post.

La collaborazione con la Dif

Per raggiungere questo obiettivo, Microsoft ha incubato negli ultimi anni idee per l'utilizzo di blockchain e altre tecnologie di contabilità distribuite per creare nuovi tipi di identità digitali decentralizzate.

Redmond sta anche lavorando con i membri della Decentralized identity foundation, che ha l’obiettivo di creare "identità decentralizzate ancorate da Id blockchain, legate a archivi di dati zero-trust che sono universalmente individuabili".

La collaborazione si concentra sullo sviluppo di identità decentralizzate (Did), un archivio crittografato di dati d'identità chiamato Identity hub, un server chiamato Universal Did Resolver che risolve i Did lungo blockchain e credenziali verificabili.

Come spiega Ankur Patel di Microsoft, i sistemi di identità odierni sono orientati verso l'autenticazione e la gestione degli accessi, mentre in un sistema decentralizzato la fiducia si basa su "attestazioni" o rivendicazioni relative a parti dell'identità di una persona che altri enti avallano.

Did e Id Hub potrebbero aiutare gli sviluppatori a personalizzare le applicazioni e i servizi fornendo l'accesso a una serie più precisa di attestazioni, senza dover elaborare la stessa quantità di informazioni personali di un utente.

Microsoft ritiene che la tecnologia e i protocolli blockchain siano adatti per abilitare i Did, ma non sono nemmeno perfettamente progettati per la scala di sistema prevista da Microsoft.

"Alcune blockchain pubbliche come Bitcoin, Ethereum, Litecoin forniscono una solida base per radicare i Did, registrare le operazioni Dpki e gli attestati di ancoraggio", ha spiegato Patel. "Mentre alcune comunità hanno aumentato la capacità delle transazioni a catena, ad esempio, aumenti di blocco, questo approccio generalmente degrada lo stato decentralizzato della rete e non può raggiungere i milioni di transazioni al secondo che il sistema genererebbe su scala mondiale.

"Per superare queste barriere tecniche - prosegue Patel - stiamo collaborando su protocolli decentralizzati Layer 2 che corrono sopra queste catene di blocchi pubblici per raggiungere una scala globale, preservando le caratteristiche di un sistema Did di livello mondiale".

Microsoft presto aggiungerà il supporto per le identità decentralizzate nella sua applicazione Authenticator, consentendo ad altre applicazioni di interagire con i dati degli utenti attraverso l' applicazione Microsoft.

"Con il consenso, Microsoft Authenticator sarà in grado di agire come User Agent dell'utente per gestire i dati di identità e le chiavi crittografiche. In questo disegno, solo l'Id è radicato sulla catena. I dati identificativi vengono memorizzati in un hub Id fuori concatenamento (che Microsoft non può vedere) criptato utilizzando queste chiavi crittografiche", scrive Patel.

"Una volta aggiunta questa funzionalità, le app e i servizi saranno in grado di interagire con i dati degli utenti utilizzando un canale comune di messaggistica, richiedendo il consenso granulare. Inizialmente sosterremo un gruppo selezionato di implementazioni Did attraverso catene a blocchi e probabilmente ne aggiungeremo di più in futuro".

L'azienda rilascerà più informazioni sullo stato di avanzamento di una prova con Microsoft Authenticator nelle prossime settimane.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche iscriviti alla newsletter gratuita.

L'articolo Microsoft pensa a blockchain per proteggere i dati degli utenti è un contenuto originale di 01net.

La digitalizzazione di Eni passa per big data e supercomputer

01net - 23 febbraio, 2018 - 17:49

L’Eni di oggi che viaggia verso la digitalizzazione è la diretta conseguenza dell’Eni di ieri che negli anni Duemila ha riscritto i propri algoritmi. Un esempio di un cammino che oggi si sostanzia in 150 progetti trasversali a tutte le aree di business e oltre 150 manager coinvolti.

La trasformazione digitale della società, destinata a coinvolgere tutte le aree di attività della compagnia, ha una pluralità di obiettivi: dal miglioramento della sicurezza e della salute degli addetti, all’aumento del livello di affidabilità, operabilità e integrità tecnica degli impianti, con benefici in termini di sicurezza e di impatto ambientale; dal rafforzamento delle performance economico-operative, allo sviluppo di nuovi modelli di business e all’incremento della rapidità dei processi decisionali, che diventeranno sempre più data driven.

Il ruolo di Hpc4

Un cammino che ha incrociato competenze interne ed esterne con università e centri di ricerca e che ha portato all’elaborazione interna di una piattaforma software per l’architettura di supercalcolo Hpc4 che permette di generare immagini 3d del sottosuolo per superfici di 600 chilometri quadrati con una profondità di dieci km.

Se prima questa immagine veniva generata in una settimana oggi Hpc4 permette di avere il risultato in un giorno. L’obiettivo è di evidenziare nel terreno l’accumulo di idrocarburi e scoprire altri giacimenti tipo l’enorme Zohr, il giacimento egiziano che è il più grande mai trovato nel Mediterraneo. Il fulcro di questa spinta verso la digitalizzazione è il nuovo supercomputer che ha iniziato a lavorare nel green data center di Ferrera Erbognone nei pressi di Pavia.

Eni ha cominciato ad approcciare il mondo digital con i primi calcolatori potenti e software proprietari associati al calcolo e trattamento di enormi quantità di dati: sia quelli geologici relativi all’esplorazione, sia quelli alla base delle simulazioni fluido dinamiche in giacimento. Successivamente, la società ha avviato lo sviluppo di algoritmi proprietari nelle attività di esplorazione.

Negli anni 2000 ha riscritto i propri algoritmi, ingegnerizzandoli secondo una struttura dell’hardware integrata (Cpu+Gpu) che consentisse di superare la logica sequenziale e di lavorare per cluster di calcolo. In questo modo, ogni elaborazione viene scomposta in diversi job che vengono poi ricomposti alla fine, permettendo di lavorare in parallelo più velocemente.

Oggi è il momento di Hpc4 che consente alla società di disporre di un’infrastruttura di calcolo con una capacità di picco pari a 22,4 Petaflop, 22,4 milioni di miliardi di operazioni matematiche svolte in un secondo. Fornito da Hpe, è costituito da 1.600 nodi Hpe ProLiant DL380, ognuno costituito da 2 processori Intel 24-core Skylake (per un totale di oltre 76,000 cores) e 2 acceleratori Gpu NVidia Tesla P100. I nodi sono connessi attraverso una rete ad alta velocità Edr Infiniband e il sistema è affiancato da un sistema di archiviazione di 15 Petabytes ad alte prestazioni.

Secondo Claudio Descalzi, amministratore delegato di Eni: “Gli investimenti dedicati al potenziamento delle infrastrutture di supercalcolo e allo sviluppo di algoritmi rappresentano una parte importante del processo di trasformazione digitale di Eni. Possiamo elaborare e stoccare enormi quantità di dati per l’imaging geofisico, la modellizzazione di sistemi petroliferi e di giacimento e altresì utilizzare algoritmi predittivi e di cognitive computing per tutte le nostre attività di business. Per la nostra industria è sempre più vitale poter elaborare una quantità di dati in continua crescita, garantendo risultati sempre più accurati e in tempi rapidi: con Hpc4 stiamo tracciando la strada dell’utilizzo di supercalcolatori di potenza exascale nel mondo dell’energia, sistemi che potrebbero rivoluzionare le modalità di gestione delle attività oil&gas”.

De Scalzi ha sottolineato l’importanza dei big data con i quali si lavora dagli anni Settanta. “Per Eni sono importanti perché lavoriamo su dati indotti e dobbiamo interpretare ciò che è 4.000 metri sotto di noi. Questo comporta però investimenti per miliardi su ciò che non vediamo”.

Siamo qua, ha proseguito, perché non potremmo essere da nessun’altra parte. “D’altronde il nostro lavoro è minimizzare le incertezze”. De Scalzi ha ricordato come l’insourcing sia stata la scelta della società che ha progettato internamente il supercomputer perché l’harware doveva adattarsi ai bisogni di Eni.

Il sistema di supercalcolo sorge all’interno del Green data center, una struttura che vanta Pue (Power usage effectiveness) di 1,175 rispetto a una media mondiale di 1,8. Questo ha permesso nel triennio 2014-17 di risparmiare 18.000 ton di CO2 e oltre 50.000 MWh. L’infrastruttura viene alimentata alla centrale termoelettrica di Enipower, situata accanto al centro, e da un parco fotovoltaico da circa 1 MW installato presso la struttura che fornisce il 15% delle necessità dell’impiato che utilizza come raffreddamento un sistema di free cooling che mantiene al fresco tutte le macchine utilizzando l’aria fuori dall’impianto. Così, solo convogliando l’aria, funziona per il 92% del tempo.

 

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche iscriviti alla newsletter gratuita.

L'articolo La digitalizzazione di Eni passa per big data e supercomputer è un contenuto originale di 01net.

Capitali per le startup, perché serve coordinare l’intervento statale

Casaleggio - 23 febbraio, 2018 - 17:27

Intervista del 19 febbraio 2018 da parte del Corriere della Sera a Davide Casaleggio.

Nella Champions League dell’innovazione, l’Italia non supera (ancora) i gironi di qualificazione. A mancarci, oggi, è soprattutto un aspetto della preparazione atletica: i finanziamenti. Quelli destinati alle startup sono ancora troppo pochi e di difficile accesso, stimabili in qualche centinaia di milioni di euro l’anno (3,8 milioni di euro in media a finanziamento), mentre nel resto dell’Europa si aggirano intorno a qualche miliardo di euro. I conti li ha fatti la Casaleggio Associati, la società di ricerca e consulenza strategica alle aziende, da sempre orientata ai temi che toccano la business innovation. Il Rapporto sullo stato del venture capital in Italia (realizzato intervistando oltre cento aziende che hanno ricevuto finanziamenti superiori a 500 mila euro dai principali fondi che investono in Italia) è da oggi scaricabile sul sito della società. Davide Casaleggio, che la presiede, ha anticipato i risultati all’Economia del Corriere. E ha provato a spiegare come mai, degli 8 miliardi investiti in Italia nel 2016, meno del 2% arrivavano da venture capital. «La maggior parte delle operazioni sono ancora condotte tramite private equity — spiega Casaleggio —. Non esiste un vero ecosistema capace di attrarre i venture capital. Per crearlo, bisogna agire in varie direzioni, per esempio potenziando il capitale di rischio disponibile e coordinando l’intervento statale. In Italia le politiche per l’imprenditorialità sono spesso gestite a livello regionale e mancano di un coordinamento centrale. Questo rende scarsamente efficaci le azioni tese a finanziare la fase di avvio delle startup, basate su contributi a pioggia e spesso a fondo perduto». Gli esempi non mancano: «In Abruzzo la Finanziaria Regionale Abruzzese gestisce un fondo di rotazione, StartHope, e ha inaugurato un incubatore a Pescara. Nel Lazio è Lazio Innova a sostenere l’innovazione. In Basilicata nel 2015 è stato lanciato il primo fondo regionale venture capital con 8 milioni. Una soluzione di successo in Francia è stata, invece, l’istituzione della Banca Pubblica d’Investimento». Secondo Casaleggio serve anche: «Incentivare l’open innovation dei grandi gruppi, fare formazione destinata all’innovazione e potenziare il sistema di crowdfunding, sul modello del Regno Unito e della Francia».

Il confronto
Con un sistema ancora così poco maturo rispetto all’Europa, la sfida è quella di uno sviluppo in tempi brevi. «La Francia in pochi anni è passata da una cifra investita simile a quella che abbiamo in Italia oggi, a una pari a oltre venti volte tanto — spiega Casaleggio —. Lo ha fatto tramite una razionalizzazione degli incentivi pubblici con una banca pubblica di investimento, una moral suasion nei confronti delle grandi società francesi a investire in corporate venture capital offrendo possibili exit agli investimenti iniziali e un sistema di incentivi fiscali e normativi per attrarre investitori dall’estero. Se ha funzionato per la Francia non vedo perché dovremmo perderci l’opportunità di finanziare l’innovazione anche in Italia». Anche perché, emerge dal Rapporto, innovazione fa rima (anche) con occupazione. Spiega Casaleggio: «Per ogni milione investito da parte di venture capital si creano 12 posti di lavoro nell’azienda e 60 nell’indotto. Inoltre, il 60% del campione analizzato prevede di raddoppiare il proprio organico nei prossimi due anni. È interessante notare anche l’effetto moltiplicativo che in Italia ogni lavoratore impegnato nel settore hi tech genera: altri 5 posti di lavoro in altri settori in termini di indotto». Allora la crescita dell’Italia passa anche da migliori condizioni per le startup? «Negli Usa il venture capital è stato essenziale, se si pensa che aziende come Amazon o Apple hanno iniziato a raccogliere finanziamenti in questo modo. Il potenziale assoluto è importante: le aziende Usa quotate finanziate da venture capital impiegano oggi 4 milioni di persone. Ecco perché anche in Italia non possiamo pensare all’innovazione senza il giusto ecosistema di finanziamento».

L'articolo Capitali per le startup, perché serve coordinare l’intervento statale sembra essere il primo su Casaleggio Associati.

MWC 2018: Juniper mostra come ridurre la complessità delle reti

01net - 23 febbraio, 2018 - 16:03

Al Mobile World Congress di Barcellona Juniper Networks mostra ai partecipanti come la semplicità dell’ingegnerizzazione può ridurre la complessità operativa, proteggere l’infrastruttura di rete e innovare i servizi nel passaggio al cloud mobile distribuito 5G e IoT.

Le offerte 5G e IoT, compresi i servizi professionali, riguardano infrastrutture, software e soluzioni di sicurezza attraverso una serie di dimostrazioni, fornite da esperti e partner.

Nel corso della manifestazione, Juniper dimostrerà come le soluzioni mobile cloud distribuite possono aiutare a ridurre le complessità e risolvere le difficoltà del passaggio a un ambiente 5G/IoT grazie all’eccellenza nell’ingegnerizzazione e nell’innovazione.

Juniper dimostrerà come gli operatori mobili possono costruire un’infrastruttura robusta in grado di soddisfare la domanda di performance, latenza e scalabilità dei servizi 5G e IoT.

Gli operatori potranno vedere come sfruttare CPE, accesso (cell site e cablato), aggregazione e CO/POP come livelli di elaborazione, networking e storage virtualizzati per i nuovi servizi ad alto valore.

Utilizzando piattaforme software predittive e adattive i service provider potranno implementare nelle proprie reti orchestrazione, telemetria, analytics e machine learning.

Grazie a un portfolio di soluzioni di sicurezza fisica e virtuale, Juniper mostrerà come può aiutare gli operatori mobili ad aumentare e diminuire la protezione delle proprie reti e dei propri clienti.

L'azienda ha inoltre annunciato i dettagli del lancio di Network Slicing Bot, l’ultimo arrivato nel portfolio di applicazioni per l’automazione che permette di semplificare le gestione della rete traducendo le intenzioni espresse in linguaggio umano in workflow, in linea con la vision della Self-Driving Network.

Juniper sarà protagonista di una serie di annunci multivendor e di acquisizione di nuovi clienti tra i quali l’annuncio congiunto sull’ampliamento della partnership con Affirmed Networks e Netronome mirata a offrire ai provider mobili un modo semplice per gestire soluzioni cloud mobile distribuite ad alte prestazioni per il deployment rapido di servizi IoT e 5G.

La soluzione congiunta realizzata con Affirmed Networks e Netronome, che sarà disponibile nella seconda metà del 2018 e sarà visibile al Mobile World Congress, comprende vari componenti.

Junipers Contrail Provider Cloud: rende più agevole il deployment del cloud da parte delle telco semplificando la distribuzione Linux sottostante con Red Hat OpenStack Platform e Red Hat Enterprise Linux. Questo permette di raccogliere informazioni sulla rete con AppFormix, eliminando le tradizionali e complesse operazioni di validazione delle VNF grazie alla prequalifica e aggiungendo servizi di supporto completi che rendono possibile aggirare le complessità tipiche dell’implementazione e gestione del cloud con maggiori performance, scalabilità e service level agreement.

Affirmed Networks Mobile Cloud: offre una soluzione 5G Mobile Packet Core totalmente virtualizzata che supporta in modo nativo un’architettura CUPS con piano di controllo separato da quello utente distribuito. La soluzione offre funzionalità avanzate quali lo slicing della rete, analytics e sonde virtuali integrate, supporto multi-accesso con WiFi (ePDG e TWAG) e automazione dei servizi che permettono agli operatori di creare servizi/slice personalizzati e rendere tali servizi disponibili in tempi più brevi e costi inferiori.

Agilio SmartNIC Platform di Netronome: le piattaforme Agilio CX 10GbE, 25GbE e 40GbE SmartNIC alleggeriscono in modo trasparente l’elaborazione dei data path di switch e router per le funzioni di rete quali gli overlay, la sicurezza, il bilanciamento dei carichi e la telemetria. Ciò permette ai server utilizzati per il cloud computing e il networking server based di risparmiare CPU core per la gestione delle applicazioni pur garantendo prestazioni sensibilmente maggiori. La piattaforma Agilio CX dispone di PCIe SmartNICs standard low profile e software progettato per server rack commerciali off the shelf (COTS) che adempiono ai requisiti del necessario sistema operativo come anche quelli di assorbimento di potenza e spazio

 

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche iscriviti alla newsletter gratuita.

L'articolo MWC 2018: Juniper mostra come ridurre la complessità delle reti è un contenuto originale di 01net.

Mancanza di skill e best practice frenano l’intelligenza artificiale

01net - 23 febbraio, 2018 - 15:35

Ampiamente citata, l’intelligenza artificiale rimane una tecnologia la cui adozione è ancora nella fase iniziale. Lo certifica un’indagine Sas secondo la quale la maggior parte delle imprese europee intervistate si trova ancora all’inizio o in una fase di pianificazione.

La buona notizia però è che i risultati suggeriscono che la stragrande maggioranza delle organizzazioni ha cominciato a parlare di Intelligenza artificiale, e alcuni hanno anche iniziato ad attuare progetti adeguati. C'è molto ottimismo sul potenziale anche se un numero minore di persone si è detto ottimista sul fatto che l’organizzazione sia pronta a sfruttarlo.

Lo studio ha coinvolto cento manager di organizzazioni in tutta Europa nei settori bancario, assicurativo, manifatturiero, al dettaglio e in altri settori e rivela che il 56% degli intervistati ritiene che la sfida maggiore relativa all'Intelligenza artificiale sia il cambiamento della portata dei lavori umani alla luce dell'automazione e dell' autonomia della tecnologia.

Questo potenziale effetto dell'Ia sui posti di lavoro, per ogni intervistato, comprendeva la perdita di posti di lavoro ma anche lo sviluppo di nuovi posti che richiedevano nuove competenze in materia di intelligenza artificiale.

Per l'intelligenza artificiale mancano le best practice

I problemi etici sono stati citati come la seconda sfida più grande, con il 39% degli intervistati che solleva domande sull'opportunità che i robot e i sistemi di intelligenza artificiale funzionino "per il bene dell'umanità" invece che semplicemente per una singola azienda, e su come prendersi cura di coloro che hanno perso posti di lavoro per i sistemi di intelligenza artificiale.

Mancano ancora le storie di successo, i casi d’uso e questo fa sì che in molti siano fermi ad aspettare le mosse degli altri. Il 49% dice infatti che il problema è la fiducia perché affrontare un progetto di intelligenza artificiale significa anche cambiare l’organizzazione del lavoro.

Come detto gli skiil rimangono un problema fondamentale. Il 20% è convinto che i propri collaboratori non siano ancora pronti a cimentarsi con la nuova tecnologia e altri, il 19% non hanno in azienda uno o più data scientist. Tuto questo frena i progetti anche se il 2(% vuole assumerli e il 32% punta sullo sviluppo di competenze Ia nei team esistenti.

Quasi il 40% però ci crede ed è convinto che l’adozione della tecnologia sarà molto rapida con impatti pesanti entro i prossimi cinque anni. Quando si parla di intelligenza artificiale i casi d’uso citati si limitano spesso a self-driving car (26%) e assistenti vocali (24%), mentre pochi parlano di applicazioni di decision making (16%) o supply chain (6%) e Sanità (15%).

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche iscriviti alla newsletter gratuita.

L'articolo Mancanza di skill e best practice frenano l’intelligenza artificiale è un contenuto originale di 01net.

Milano prepara 300 appuntamenti per la Digital Week

01net - 23 febbraio, 2018 - 14:34

Dal 15 al 18 marzo si terrà la prima edizione della Milano Digital Week,.

Saranno quattro giorni con più di 300 appuntamenti in tutta la città dedicati alla produzione e diffusione di conoscenza e innovazione attraverso il digitale.

Università, luoghi di formazione e ricerca, aziende e associazioni, istituzioni e startup, nuovi attori della manifattura urbana e altre realtà apriranno le porte ad addetti ai lavori, cittadini e a studenti.

La Milano Digital Week è un'iniziativa promossa dal Comune di Milano - Assessorato alla Trasformazione Digitale e Servizi Civici e realizzata da Cariplo Factory, in collaborazione con IAB - Interactive Advertising Bureau e Hublab. Main partner sono AutoScout24, BMW Italia, Fastweb, Intesa Sanpaolo, Nexi, Samsung Electronics Italia e TeamSystem.

Sarà un’occasione per comprendere un mondo frammentato ma connesso fra le sue realtà, con dibattiti, mostre, seminari, eventi, performance, workshop, corsi di formazione, laboratori, hackathon per la prima volta riuniti in un unico palinsesto.

Dai progetti in divenire ed esempi virtuosi di trasformazione digitale in atto nella città nei più diversi settori, con un approccio inclusivo e trasversale, l’innovazione digitale milanese è stata mappata e suddivisa in 14 cluster che hanno, però, tutti a che fare con la qualità della vita dei cittadini, con le loro attività, con il loro tempo libero, con le prospettive di futuro della città: salute, educazione, società, città, welfare, mobilità, market, business, sicurezza, software, manifattura, data e pagamenti digitali, comunicazione e arti.

Quartier generale della Digital Week sarà BASE, dove si concentreranno alcuni degli appuntamenti ideati e curati dall'organizzazione della Milano Digital Week, tra i quali: una mostra fotografica per raccontare l’innovazione attraverso venti storie interpretate da fotografi di fama internazionale.

©Giulio Di Sturco

Oltre 300 fotografie, proiettate su cinque maxi schermi, per un percorso tra immagini e musica che avvicineranno il pubblico alla scoperta di progetti sorprendenti. Immersiva anche l’esperienza che si troverà nella sala cinema con una rassegna dedicata ai documentari in realtà virtuale.

Negli spazi dell’ex Ansaldo avranno sede gli incontri. Si parlerà di fake news con un dibattito sostenuto da tre direttori di testate giornalistiche; sharing mobility e urbanistica; smart living e progettazione; innovazione nelle piccole e medie imprese; trasformazione del lavoro nell’era digitale; con approfondimenti sui temi oggi più caldi come la blockchain, anche e soprattutto fuori dagli ambiti finanziari, l’intelligenza artificiale, l’internet delle cose e tutte le applicazioni che incidono profondamente sui processi di cambiamento.

Saranno presenti la maggior parte delle università e i centri di formazione del territorio tra cui il Politecnico di Milano, l’Università degli Studi di Milano - Bicocca, la Scuola Politecnica di Design e lo IED - Istituto Europeo di Design, che apriranno le loro porte a studenti, giovani creativi, docenti, professionisti e non solo attraverso un programma di workshop, open lesson, conferenze, ma anche installazioni interattive, entertainment, game, arte digitale, sound in un dialogo a distanza con le aziende del territorio lombardo monitorate dall’Osservatorio delle piccole e medie imprese di Senaf, Tecniche Nuove.

Il calendario completo è disponibile QUI.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche iscriviti alla newsletter gratuita.

L'articolo Milano prepara 300 appuntamenti per la Digital Week è un contenuto originale di 01net.

Search engine optimization, le differenti tipologie

01net - 23 febbraio, 2018 - 13:47

Un servizio Seo, Search engine optimization, ha lo scopo di posizionare un sito nella prima pagina dei risultati dei motori di ricerca per le parole chiave relative al business in questione. Ciò consente di attirare un maggior numero di utenti Internet sul sito e, con un buon contenuto, di convertirli in clienti.

Seo locale. Si tratta del servizio più diffuso in cui il cliente vuole migliorare la visibilità del proprio business sul web e si rivolge a un professionista che si occuperà di ottimizzare il contenuto del proprio sito e la propria autorevolezza agli occhi dei motori di ricerca creando un solido profilo di back link.

Pay Per Lead. Significa Paga per il potenziale cliente. Il Seo sceglierà una nicchia (in particolare il dominio), quindi creerà un sito e lo referenzierà nel miglior modo possibile. Ma poiché Seo probabilmente non è uno specialista in questo campo, venderà i suoi potenziali clienti agli specialisti.

Il sito web di un fabbro per le serrature di emergenza è un esempio. La nicchia in questione è l'ufficio del fabbro e poiché l'area di intervento per questi servizi è molto ampia, ogni volta che una persona è interessata ai servizi di un fabbro, fornirà le sue informazioni che saranno rivenduta a un fabbro locale che fornirà il servizio in questione.

Affiliate Seo. Questa variante prevede da parte del Seo la realizzazione di un suo sito dove promuove i prodotti di un altro business. Di solito si guadagna una commissione sulle vendite di questo sito. Un esempio è il sito vapinginsider che elenca e fornisce molteplici informazioni, note e feedback su diversi prodotti provenienti da altri siti. Quando un utente web è interessato a uno dei prodotti e desidera acquistarlo, può farlo e il proprietario del sito che fa riferimento a tutti i prodotti riceverà una commissione sulla vendita. Si tratta di un tipo di Seo particolare che necessita di attenzione. Qui alcuni errori da evitare e consigli per ottimizzare le azioni.

Concentrarsi sulla parola chiave invece che sulle soluzioni. Si tratta dell'errore principale. Le parole chiave sono importanti perché sono ciò che hanno traffico, ma è importante creare soluzioni in cui le relazioni di affiliazione forniscono valore. Mostrate ai vostri potenziali clienti quanto migliore sarà la loro vita dopo aver acquistato il vostro prodotto.

Basarsi sull'affiliate marketing come unico flusso di entrate. Qualsiasi business prevede se possibile la diversificazione dei flussi di entrata. Così l'errore diventa considerare l'affiliate un modello di business invece di un canale di fatturato. Se poi è l'unico siete sulla cattiva strada.

Non produrre contenuti originali. Troppi siti affiliati sono poco più di shell senza contenuto con elenchi di prodotti. Si può stimolare il traffico verso questi siti con annunci, ma cosa succede quando gli investimenti pubblicitari si esauriscono? Un sito reale ha un valore reale e un contenuto unico per i visitatori. In più la stragrande maggioranza di siti che duplicano contenuti hanno un cattivo posizionamento.

Dimenticarsi di eliminare plugin e temi inattivi. È necessario essere più attenti oggi a cybersecurity e la privacy dei clienti, il che significa che uno dei peggiori errori che si potrebbe fare è dimenticare di eliminare i temi inattivi e plugin. Temi e plugin che siedono inattivi sul tuo sito sono obiettivi facili per gli hacker che possono essere tenuti a bada con aggiornamenti regolari.

Mancanza o duplicazione delle Meta description. Bisogna assicurarsi che che titoli e meta descrizioni degli annunci siano rilevanti e unici. Questi vengono visualizzati come frammenti nel Serp e servono per distinguersi dalla concorrenza. Se non avete le risorse per scrivere descrizioni uniche per ognuno dei caricate il primo paragrafo di ogni pagina. Potrebbe non essere perfetto o ottimizzato, ma è meglio di niente. È anche possibile utilizzare plugin popolari come Yoast Seo (il miglior plugin WordPress per il Seo on-site base) per creare modelli personalizzati per le meta descrizioni, o provare un plugin che genera automaticamente meta descrizioni, come SmartCrawl.

Ignorare l'ottimizzazione mobile. Bisogna invece privilegiare l'ottimizzazione mobile. Anche perché Google sta passando a questo tipo di indicizzazione.

Utilizzo di soluzioni Web Hosting gratuito. Utilizzare questo itpo di soluzioni non è il modo migliore per costruire un sito o business. Questi servizi possono cambiare i loro terms of service o addirittura cessare l'attività. Non siete proprietari del design o dell'architettura del sito, e avete meno controllo sugli elementi che vi aiuteranno con le classifiche.

Backlink troppo irrilevanti. I backlink sono il pane e il burro dei siti affiliati, ma i backlink irrilevanti possono mettere in difficoltà con Google e faranno più male che bene. Il modo migliore per evitarli è assicurarsi che tutte le pagine degli affiliati aggiungano un valore aggiunto significativo a chiunque atterra su di loro.

Url canonici. L'utilizzo di URL canonici aiuterà a migliorare i segnali di collegamento e classificazione dei contenuti. Rende anche la vita più facile per i vostri clienti, organizzando il contenuto che rende la navigazione semplice e intuitiva. Il consiglio migliore per quanto riguarda la struttura degli Url è di organizzare il sito in silos. Introdurre categorie nella struttura del sito e poi comunicare chiaramente quelle categorie ai clienti attraverso gli Url che arrivano quando seguono i link affiliati.

Pretendere le migliori pratiche di Seo. Non ignorare i comuni errori Seo sul sito affiliato. Link rotti, errori 404, contenuti duplicati, contenuti sottili e troppi reindirizzi sono tutti problemi che devono essere eliminati. Scaricate una suite completa di strumenti Seo in grado di controllare lo stato di salute del sito. Questo aiuterà a trovare ed eliminare gli errori che influiscono sulla vostra crawlability, come ad esempio i collegamenti interrotti, identificando e individuando anche i contenuti problematici da correggere.

 

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche iscriviti alla newsletter gratuita.

L'articolo Search engine optimization, le differenti tipologie è un contenuto originale di 01net.

Alberto Dosi, Fujitsu: l’intelligenza artificiale sarà sempre più embedded

01net - 23 febbraio, 2018 - 13:00

"L’evoluzione delle architetture enterprise aziendali va verso l’hybrid cloud e questo rappresenta un fattore abilitante. La trasformazione applicativa deve essere conseguente. Questo è un grosso ambito di cambiamento che la trasformazione verso il cloud sicuramente porta". Così si è espresso Alberto Dosi, Head of Mis di Fujitsu Italia, alla Tavola Rotonda Outlook 2018 organizzata da 01net.

"Il cloud lo vediamo come un ambiente distribuito, che può arrivare fino all’edge – ha precisato Dosi –. Anche le architetture cloud devono evolvere verso strutture distribuite. Al di sopra di questo ci sono piattaforme abilitanti del software, una delle quali è sicuramente l’intelligenza artificiale. Noi prevediamo che l'intelligenza artificiale che diventi mano a mano embedded. Questi sono gli ambiti dove Fujitsu sta investendo".

Sensori IoT e wearable connessi

"Fujitsu è molto attiva anche sul digital workplace – ha aggiunto Alberto Dosi – e sulla user experience. Nell’ambito dell’Iot stiamo invece investendo molto in sensori e wereable connessi".

Nel video seguente Alberto Dosi racconta in meno di 70 secondi su cosa dovrebbero puntare le Pmi secondo Fujitsu per ottenere un reale vantaggio dalla trasformazione digitale.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche iscriviti alla newsletter gratuita.

L'articolo Alberto Dosi, Fujitsu: l’intelligenza artificiale sarà sempre più embedded è un contenuto originale di 01net.

MWC 2018: Qualcomm dai pc sempre connessi al 5G in auto

01net - 23 febbraio, 2018 - 12:04

Al Mobile World Congress 2018 di Barcellona Qualcomm Technologies punta l’attenzione intorno ai PC Always Connected, che vengono scelti da nuovi operatori mobili in tutto il mondo.

Questo trend può risultare in piani di connettività per i consumatori più semplici e convenienti basati su reti wireless 4G/LTE avanzate in Asia, Nord America e Europa.

In particolare, tre nuovi dispositivi Windows 10, forniti da Asus, HP e Lenovo, basati sulla piattaforma Qualcomm Snapdragon Mobile PC useranno le reti 4G/LTE per essere sempre connessi e abilitare il mobile computing in qualsiasi momento e ovunque.

Qualcomm presenta al MWC anche i nuovi kit di sviluppo IoT basati sui SoC QCA4020 e QCA4024, che supporteranno gli sviluppatori e i produttori di dispositivi nella realizzazione di prodotti IoT che lavorano in sinergia con altri dispositivi e l’ecosistema cloud.

I kit sono progettati per applicazioni IoT come smart city, giocattoli, home control e automazione, elettrodomestici, networking e intrattenimento domestico.

Presentata anche la piattaforma embedded Qualcomm Snapdragon 820E e l’estensione del portfolio computing embedded per supportare applicazioni di livello premium per IoT. La soluzione testimonia come Qualcomm utilizzi la sua esperienza mobile sia in ambito computing e connettività per prodotti IoT commerciali.

Con Groupe PSA la società ha annunciato progressi nel test della tecnologia di comunicazione Cellular Vehicle to Everything (C-V2X). Uno degli obiettivi del trial è testare la tecnologia C-V2X, come primo passo verso l’implementazione del 5G in applicazioni automotive con comunicazione diretta tra veicoli.

Presentato anche il Qualcomm Artificial Intelligence Engine, che include diversi componenti hardware e software studiati per accelerare lo sviluppo di esperienze utente on-device abilitate dall’intellitenza artificiale su una selezione di piattaforme mobili Qualcomm Snapdragon, e annunciata la nuova reference platform per la realtà virtuale basata sulla piattaforma mobile  Snapdragon 845.

La società ha anche annunciato la prima soluzione integrata 2x2 802.11ax-ready per smartphone, tablet e notebook per dare agli OEM le più importanti funzionalità di 11ax prima della completa standardizzazione e certificazione. La nuova soluzione WCN3998 di Qualcomm Technologies per i dispositivi client migliorerà in maniera significativa la sicurezza grazie al supporto del protocollo di sicurezza WPA3, rendendo Qualcomm la prima azienda a implementare funzionalità di sicurezza avanzate in soluzioni 11ax. WCN3998 migliorerà anche l'esperienza Wi-Fi, raddoppiando il throughput della rete e riducendo il consumo energetico del Wi-Fi fino al 67% rispetto alle soluzioni 11ac Wave-2 della generazione precedente.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche iscriviti alla newsletter gratuita.

L'articolo MWC 2018: Qualcomm dai pc sempre connessi al 5G in auto è un contenuto originale di 01net.

Con la microsegmentazione la sicurezza è più agile

01net - 23 febbraio, 2018 - 11:24

La microsegmentazione è un metodo per creare zone sicure nei data center e nelle implementazioni cloud che consente alle aziende di isolare i carichi di lavoro gli uni dagli altri e proteggerli individualmente. Il suo obiettivo è rendere la sicurezza della rete più granulare.

Per la segmentazione della rete le aziende si sono affidate per anni a firewall, reti locali virtuali e liste di controllo accessi (Acl). Con la microsegmentazione, le politiche vengono applicate ai singoli carichi di lavoro per una maggiore resistenza agli attacchi.

Microsegmentazione anziché Vlan

Dove le Vlan consentonosì una segmentazione, ma tutto sommato grossolana, la microsegmentazione consente una segmentazione più fine.

I firewall tradizionali, i sistemi antintrusione (Ips) e altri sistemi di sicurezza sono progettati per ispezionare e proteggere il traffico che entra nel data center in direzione nord-sud.

La microsegmentazione fornisce alle aziende un maggiore controllo sulla crescente quantità di comunicazione "est-ovest" o laterale che avviene tra i server, aggirando gli strumenti di sicurezza incentrati sul perimetro. In caso di violazioni, la microsegmentazione limita la potenziale esplorazione laterale delle reti da parte degli hacker.

La maggior parte delle aziende ha messo tutti gli strumenti di sicurezza ad alto valore nel cuore del data center. E così il traffico che si sposta da nord a sud deve passare attraverso quei firewall. Se si muove da est a ovest, sta aggirando questi strumenti. Si potrebbero mettere i firewall in ogni punto di interconnessione, ma ciò sarebbe proibitivamente costoso. E neanche molto agile.

Con la microsegmentazione i professionisti IT possono adattare le impostazioni di sicurezza ai diversi tipi di traffico, creando policy che limitano i flussi di rete e di applicazioni tra i carichi di lavoro a quelli esplicitamente consentiti. In questo modello di sicurezza un'azienda potrebbe stabilire una politica, ad esempio, secondo la quale i dispositivi medici possono parlare solo con altri dispositivi medici.

E se un dispositivo o un carico di lavoro si muove, i criteri e gli attributi di sicurezza si spostano con esso. L'obiettivo è ridurre la superficie d'attacco della rete: applicando regole di segmentazione fino al carico di lavoro o all'applicazione, l'It può ridurre il rischio che un aggressore si sposti da un carico di lavoro compromesso o da un'applicazione all' altra.

Un altro fattore determinante è l'efficienza operativa. Gli elenchi di controllo degli accessi, le regole di routing e i criteri firewall possono diventare poco complessi e introdurre un sacco di spese generali di gestione, rendendo le politiche difficili da scalare in ambienti in rapido cambiamento. La microsegmentazione avviene tipicamente nel software, il che facilita la definizione dei segmenti a grana fine.

E con la microsegmentazione, l'It può lavorare per centralizzare la politica di segmentazione della rete e ridurre il numero di regole firewall necessarie. Non è un compito di poco conto: non sarà facile consolidare anni di regole firewall e liste di controllo accessi e tradurle in politiche che possano essere implementate in ambienti aziendali complessi e distribuiti.

 

 

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche iscriviti alla newsletter gratuita.

L'articolo Con la microsegmentazione la sicurezza è più agile è un contenuto originale di 01net.

MWC 2018, Italtel porta la realtà aumentata nel video 5G

01net - 23 febbraio, 2018 - 10:08

Italtel presenta al Mobile World Congress 2018 di Barcellona la sua ultima applicazione per la fruizione di servizi video in logica 5G, pensata per offrire migliori prestazioni di upload, minore latenza e maggiore durata della batteria dei dispositivi collegati.

Si tratta di i-EVS (Enhanced Video Services), evoluzione della sua applicazione Virtual Transcoding Unit (vTU), che gira su una piattaforma di Multi-Access Edge Computing (MEC) ed è stata aggiornata con nuove funzionalità, inclusi meccanismi di contestualizzazione e localizzazione che consentono ai service provider di lanciare nuovi servizi a valore aggiunto.

In virtù delle funzionalità per il caching dei dati al bordo della rete, l’applicazione permette agli utenti, quando si trovano in ambienti affollati come centri commerciali, aeroporti o eventi sportivi, di accedere più rapidamente a specifici contenuti in base alla loro posizione, quali per esempio video o informazioni promozionali.

Il Mobile World Congress sarà il terreno per la prima dimostrazione di i-EVS dopo i test iniziali nell'ambito del progetto 5G Essence inserito nel programma di Horizon 2020.

5G Essence affronta i paradigmi di Edge Cloud computing e "Small Cell as a Service", muovendosi verso una piattaforma altamente flessibile, scalabile e 5G-ready.

A Barcellona viene presentata una demo di i-EVS progettata in collaborazione con Athonet, partner commerciale e di ricerca della società di Settimo Milanese per le soluzioni mobili.

Italtel e Athonet hanno costruito una soluzione LTE Mobile 4.5G completa (pronta per collegare la futura 5G New Radio) che include sia un LTE RAN sia una piattaforma MEC che ospita i-EVS.

L'obiettivo è simulare un ambiente mobile reale e abilitare una serie di servizi correlati alla realtà aumentata.

La dimostrazione utilizza la soluzione MEC di Athonet, che consente di suddividere il traffico in modo selettivo in base a precise policy e guidarlo localmente per supportare la memorizzazione nella cache e la gestione dei contenuti e per supportare altre applicazioni che richiedono bassa latenza o offload locale (AR / VR, smart city, auto autonome).

Italtel sarà al Mobile World Congress insieme ad Exprivia con un portafoglio completo di soluzioni per servizi 5G, smart city, smart energy, smart healthcare e Industry 4.0.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche iscriviti alla newsletter gratuita.

L'articolo MWC 2018, Italtel porta la realtà aumentata nel video 5G è un contenuto originale di 01net.

Blog e Lead Generation: come misurare il successo di un articolo

Petrucci - 14 febbraio, 2018 - 15:35

Il Blog, nella strategia di Lead Generation, è molto importante.

I motivi principali sono due:

  1. gli articoli permettono il miglioramento della percezione di te come professionista;
  2. gli articoli, nel tempo, favoriscono un migliore posizionamento in Google (SEO).

Le visualizzazioni da sole non dicono niente!

L’errore che si commette più frequentemente è quello di giudicare il solo parametro delle visualizzazioni. Tuttavia esso, da solo, non serve a giudicare se un articolo funziona o meno.

Molto spesso a decretare un buon numero di visualizzazioni è il titolo dell’articolo: magari hai usato un bel titolo accattivante, ma poi sei sicuro che le persone lo abbiano letto davvero quell’articolo?

Facciamo un passo indietro e stabiliamo gli obiettivi principali di un articolo.

Gli obiettivi principali di un articolo

Un articolo deve essere sempre pensato come una tattica di avanzamento nel processo che porta un visitatore a diventare cliente.

Il processo di acquisto parte sempre dalla fase di esplorazione ed informazione, per poi avanzare più o meno come nello schema seguente

Ho scritto un utilissimo articolo su Blog nel Processo di Vendita che ti consiglio di leggere, se non lo avessi già fatto.

Quindi un articolo deve:

  1. Attrarre il lettore con un buon titolo.
  2. Trattenerlo per tutto il tempo necessario alla sua lettura.
  3. Farlo avanzare nel processo di acquisto.

Il punto 1 genera la visualizzazione, ma non basta a decretare il successo dell’articolo. Dobbiamo considerare il punto numero 2 ovvero la capacità dell’articolo di farsi leggere.

Se un articolo non si fa leggere allora non serve poiché non genera interesse per l’argomento, non partecipa alla creazione di una buona percezione di te come esperto e, alla lunga, anche Google lo penalizza.

Come valutare se un articolo si fa leggere?

È semplice: devi considerare il tempo medio di lettura e confrontarlo con il tempo medio di permanenza su quell’articolo. Quest’ultimo valore lo leggi da Google Analytics, che ti consiglio d’installare sempre sia nel tuo sito che nel tuo Corporate Blog.

Per fare un esempio, valutiamo le performance del mio articolo “Come scrivere un profilo aziendale di successo” nel mese di Gennaio 2018:

Considerato il numero di parole (circa mille) il tempo medio di lettura va da 5 a 8 minuti. In questo caso il tempo medio, di coloro che restano più della media sul sito, è comunque inferiore. Questo vuol dire che il mio articolo non viene letto nella sua globalità, probabilmente le persone sono interessate a leggere direttamente i suggerimenti.

Applicando un filtro sul tempo di permanenza, ho individuato che le persone sopra i 5 minuti di permanenza media sono 57, quindi ottengo:

  • Persone sopra la media del sito: 128 su 1.883 ovvero 6,79%
  • Persone davvero interessate: 57 su 128 ovvero 44,53%, mentre rappresenta il 3% sul totale.

Questi due dati mi dicono che solo il 3% del traffico è davvero in target.

Come puoi migliorare questo numero?

  1. Segmentando meglio il traffico (se stai tenendo accesa una campagna di traffico).
  2. Scrivendo meglio il tuo articolo (promessa, linguaggio fluido, dati importanti subito).
  3. Valuta se scrivere un articolo più breve (entro le 700 parole).

Se avessi preso come parametro le 1.883 letture, avrei avuto un dato distorto dalla realtà! Quelle sono solo le persone che, in un modo o nell’altro, sono atterrate sul mio articolo ma non rappresentano le persone veramente interessate al mio articolo, quelle le posso contare solo applicando un filtro sul tempo di permanenza.

L’importanza della Call To Action

Il secondo parametro di cui devi tenere conto è la call to action ovvero cosa vuoi che l’utente faccia dopo aver letto l’articolo?

Mai e poi mai lasciare un lettore a se stesso! Devi sempre dargli qualcosa da fare dopo aver letto l’articolo (o nel mentre).

Ecco alcuni esempi:

  • un banner su cui cliccare (es. un prodotto del tuo e-commerce correlato all’articolo);
  • un link di approfondimento (es. ad una pagina di download ebook o altra risorsa);
  • un link di avanzamento (es. ad un successivo articolo che approfondisce il tema);
  • l’iscrizione alla tua newsletter;
  • la compilazione di un modulo di contatto;
  • un link alla pagina di contatto.

Questi sono solo un esempio delle possibili call to action che puoi proporre. La qualità di un articolo si misura sul tasso di conversione della tua call to action ovvero quante persone hanno compiuto proprio l’azione che avevi predisposto per loro.

Nel mio caso la call to action è un link che porta alla pagina di contatto.

Questa tabella indica quante persone hanno cliccato sulla mia call to action.

Ci dice che in generale ci sono stati 15 clic, di questi la totalità è stata eseguita da coloro che sono stati sulla pagina almeno 1 minuto e mezzo.

Applicando il secondo filtro “Persone che sono state da 5 minuti in su”, si vede che di quei 15 clic, 11 provengono proprio dalle persone molto interessate.

Questo significa che:

  • Su 128 persone in target, 15 hanno cliccato ovvero l’11,72%.
  • Su 57 persone molto interessate, 11 hanno cliccato ovvero 19,30%.
  • In generale solo lo 0,8% sul totale ha cliccato sulla call to action.
Riepilogando: come valutare un articolo del blog

(1) Per prima cosa stima il tempo di lettura del tuo articolo, puoi applicare questa formula:

Minuti di lettura = 0,0065 * Numero_Parole

Ecco un esempio:

Tempo di lettura di un testo di 1.500 parole = 0,0065 * 1500 = 9,75 minuti

(2) Confronta questa stima con il tempo di permanenza media del tuo articolo, sono simili?

Se c’è molta distanza, come nel caso in esempio, allora applica un filtro e misura il numero di persone che sono rimaste sul tuo articolo il tempo giusto per una lettura completa.

(3) Misura, tramite gli “obiettivi di Analytics” quante persone hanno cliccato sulla tua call to action.

Solo avendo questi dati puoi capire se il tuo articolo sta funzionando davvero oppure è solo una perdita di tempo.

Inoltre, grazie a questi dati, puoi anche agire per migliorare il tuo articolo poiché hai dei parametri reali per misurare la qualità del tuo intervento migliorativo:

  • dopo la modifica, è aumentato il tempo medio di permanenza?
  • dopo la modifica, è aumentato il numero di persone che cliccano sulla call to action?

È così che misuravi il successo dei tuoi articoli? Oppure ti limitavi a valutarne solo le letture (views)?

 

L'articolo Blog e Lead Generation: come misurare il successo di un articolo proviene da Web Marketing & Lead Generation | Massimo Petrucci.

News

News

Fatturazione elettronica dal 31 marzo 2015

Posta elettronica certificata

Arxivar 4.5

Rilasciata la versione 4.5. - Nuova interfaccia grafica e nuove funzionalità.

XIII Forum Pluribus: nasce il nuovo Sigla Ultimate

La nuova versione del gestionale in stile Enterprise 2.0 è stata annunciata il 3 aprile 2009