Ritorno al passato: quando la nostalgia guida i consumi

29 Views

Ritorno al passato: quando la nostalgia guida i consumi

Se siete ancora molto lontani dall’età della pensione, ma più passano gli anni e più amate ritrovarvi coi vostri coetanei per guardare con vago disgusto alle abitudini delle nuove generazioni, rimembrando con emozione e malinconia i cari bei tempi di gioventù, allora molto probabilmente siete tra i finanziatori del crescente trend nostalgico dei consumi.

 

Da qualche anno stiamo assistendo ad una sempre più crescente voglia di ritorno al passato che si sta diffondendo progressivamente in tutti gli ambiti dei consumi: cinema, tv, eventi e, non ultima, la tecnologia.

 

Del resto in un periodo in cui la tecnologia riesce a modificare radicalmente gli stili di vita in soli dieci anni o anche meno, in cui il futuro è sempre più incerto e sono crollate le certezze che hanno caratterizzato la vita delle generazioni passati, cosa c’è di più confortante che rifugiarsi nel passato?

 

Tanti sono i brand che stanno portando avanti delle vere e proprie operazioni di nostalgia marketing: una strategia che fa leva sui ricordi e sulle emozioni dei consumatori, per avvicinarli al proprio brand.

La più recente e nota operazione di nostalgia marketing è stata portata avanti da HMD Global, società finlandese che sviluppa dispositivi mobili con il marchio Nokia, che ha rilanciato il cellulare più cult di tutti gli anni 90-2000: il famoso Nokia 3310.

 

nuovo nokia 3310

 

Amato e desiderato da tutti i giovani di allora, il Nokia 3310 debuttò sul mercato nel 2000 e riuscì in soli 5 anni a vendere ben 125 milioni di esemplari. I motivi per cui amarlo erano: il design accattivante, le suonerie polifoniche, i giochi e, non da ultimo, la sua indistruttibilità.

Il nuovo 3310 è stato lanciato il 27 febbraio 2017 a Barcellona in occasione del Mobile World Congress ed è stato sorprendente notare come un piccolo e colorato feature phone sia riuscito a rubare la scena ai più innovativi smartphone di ultima generazione.

I punti di forza di questa nuova versione sono il piccolo prezzo (49 euro) e una batteria potentissima che promette un’autonomia di 29 giorni se lasciato in stand by e di 22 ore di telefonate. Una bella ventata di aria fresca che libererebbe dal giogo del caricabatteria a cui siamo costretti con gli attuali smarthphone.

Come ha fatto questo telefonino con un display da 2,4 pollici, una fotocamere da 2 megapixel e una connessione dati ridicola ad attirare tutto questo interesse? Semplice: effetto nostalgia!

Ma le emozioni basteranno a sopperire la mancanza di una fotocamera decente e l’assenza di app ormai fondamentali come Facebook, Instagram, Snapchat e, soprattutto, Whatsapp?

Lo scoprireremo tra qualche mese!

Nel caso di Nintendo l’operazione nostalgia si è rivelata più che vincente.

 

Nintendo-Classic-Mini-NES

A luglio 2016 è stato lanciato in America il Nintendo Classic Mini, una rivisitazione mignon della storica console NES, uscita nel 1986 e diventata un cult per tutti i nati tra gli anni 80 e gli anni 90.

La nuova versione del 2016 presenta il perfetto mix di nostalgia e innovazione, permettendo di rivivere vecchie emozioni con la comodità delle nuove tecnologie.

Infatti, la console viene venduta con 30 giochi cult già installati con connessione HDMI che permette di essere collegata alle tv di ultima generazione. Ogni gioco può essere riprodotto in tre diverse modalità: tubo catodico, che riproduce la stessa modalità di visualizzazione delle vecchie televisioni, con tanto di linee di scansione; modalità 4:3, che garantisce il mantenimento dell’originale look, con un leggero allungamento in orizzontale e la modalità pixel perfect, una nuova tecnologia che garantisce immagini nitide anche su schermi molto grandi.

I risultati di vendita sono stati strabilianti con un effetto nostalgia che ha portato alla rottura di stock e a posizionare il nuovo Nintendo Classic Mini in vetta alle classifiche, immediatamente dopo  la Playstation4 di Sony e la Xbox One di Microsoft, leader del mercato.

L’effetto nostalgia risulta vincente anche sul grande e sul piccolo schermo.

 

La bella e la bestia 2017

 

Il 16 Marzo ha debuttato nelle sale cinematografiche La Bella e la Bestia, live-action remake del classico del 1991,  con ben 7,4 milioni di euro guadagnati solo nel primo weekend.

La Disney si sta affezionando agli ottimi risultati ottenuti dai remake live-action degli ultimi anni: Alice in Wonderland guadagnò 116 milioni di dollari, Il Libro della Giungla 103, Maleficent 74 e Cinderella 68.

Non stupisce che il 2018 in casa Disney sarà ancora a tema remake: da Genius (prequel di Aladdin), a Tink (spinoff di Peter Pan), alla Sirenetta, ci sono tutti i presupposti per rituffarsi nei dolci ricordi d’infanzia.

Non è solo la Disney ad essere rimasta intrappolata nel baratro dei ricordi, ma la maggior parte delle uscite cinematografiche del 2017 saranno a tema nostalgia.

Il 2017 sarà l’anno dei remake di film cult anni 80 e 90.

Assisteremo al ritorno di Jumanji, a quello del cult horror It,  vedremo il reboot di Blade Runner e  persino la trasformazione in film di Baywatch e dei Power Rangers, serie televisive che hanno segnato l’infanzia di chi è nato negli anni 80 e 90.

Il 23 febbraio ha  debuttato in sala T2 Trainspotting, dell’omonimo film cult del 1996, firmato Danny Boyle.

Il secondo capitolo, tanto amato da alcuni spettatori, quanto odiato da altri, è un distillato di nostalgia pura che ben ricalca il trend di questi ultimi anni.

Trainspotting 2 ci insegna che non importa quanto il passato possa essere stato imperfetto e disagiato, di fronte al cambiamento e alle continue incertezze imposte dal futuro, la tentazione sarà sempre quella di riscoprire il caldo calore delle certezze dei tempi andati.

Al via #iosonociòchevedi, campagna di comunicazione sul valore dell’autenticità sul web

39 Views

Al via #iosonociòchevedi, campagna di comunicazione sul valore dell’autenticità sul web

Dodici testimonial al femminile raccontano la loro storia con il web e confessano quanto essere persone vere sia stata la scelta vincente per la crescita della loro professionalità, anche attraverso la rete. 

Tra di esse anche Eleonora Rocca, founder di Mashable Social Media Day Italia + Digital Innovation Days

Solo se la tua immagine è reale puoi essere autentico
Solo se il tuo messaggio è vero puoi generare relazioni costruttive
Solo se mostri davvero chi sei le persone si fidano e si affidano

Dodici testimonial al femminile raccontano la loro storia con il web e confessano quanto essere persone vere sia stata la scelta vincente per la crescita della loro professionalità, anche attraverso la rete.

Nata da un’idea di Giovanna Vitacca, Personal and Business Style Coach e di Daniela Pellegrini, Marketing and Communication Consultant, #iosonociòchevedi si pone l’obiettivo di sensibilizzare il pubblico sui concetti di trasparenza, coerenza e autenticità sul web, come principi sui quali basare relazioni costruttive e sostenere in modo efficace anche la propria immagine professionale.

 

“Oggi siamo tutti personaggi pubblici – dichiara Giovanna Vitacca – basta avere un profilo social per essere sotto le luci dei riflettori. Il nostro pubblico sono i nostri amici in primis, ma per chi lavora con il web il pubblico è tutta la community fatta di clienti, partner, fornitori, colleghi, influencer. La grande differenza rispetto agli attori che calcano le scene è che noi siamo persone vere, non stiamo recitando o interpretando un ruolo. Noi dobbiamo essere autentici per generare identificazione, riconoscimento, credibilità”.

#iosonociòchevedi dunque si propone di spingere gli utenti della rete a sintonizzare forma e sostanza, immagine esteriore e contenuto, vita reale e virtuale affinché anche la piazza del web sia un’estensione del proprio mondo e non un universo parallelo dove essere altro da sé o addirittura proporsi con profili finti e ingannevoli che generano solo false aspettative e delusione.

 

La campagna, che durerà fino a fine luglio 2017, è in realtà solo il primo atto di un progetto più ampio che vuole affermare #iosonociòchevedi come brand dedicato alla promozione e diffusione di messaggi e contenuti di valore legati al mondo della comunicazione, dell’immagine e della coerenza tra le due anime.
La Rete è il mezzo privilegiato per sostenere questa iniziativa e per creare una community di riferimento che condivida i temi trattati e a sua volta sia propulsore per la loro divulgazione. Community fatta non solo di utenti, professionisti, influencer, ma anche di aziende che hanno fatto dell’autenticità una delle loro fondamenta per costruire la propria credibilità e reputazione.
“E’ il caso di Fratelli Rossetti, Levico Acque e Astoria Wines che hanno sposato con entusiasmo l’iniziativa, ma ci auguriamo altre aziende accolgano il nostro invito a sostenere la campagna e diffonderne i messaggi. Oggi più che mai l’utente, il consumatore deve credere in realtà i cui valori siano saldi e onesti; solo se mi fido di un professionista o di un brand posso scegliere di affidarmi ai suoi servizi o acquistarne i prodotti” aggiunge Daniela Pellegrini.
Ad oggi alla campagna hanno aderito, ‘mettendoci la faccia’ in una video-intervista, 12 testimonial donne, ciascuna rappresentativa di un ambito professionale, che attraverso il racconto della loro storia personale, testimoniano quanto la verità del loro messaggio sia stato premiante e quanto il web sia stato importante e strategico per la loro attività.
Le interviste saranno pubblicate sul canale ufficiale Youtube (https://youtu.be/Qv1heGX1NE4) e sulla pagina Facebook (https://www.facebook.com/iosonociochevedi/?fref=ts) e Instagram, una ogni dieci giorni.
“Coinvolgere solo le donne non è discriminante verso gli uomini, in autunno è prevista una seconda edizione dedicata solamente a volti maschili – conclude Giovanna Vitacca – Semplicemente, per partire, ci è sembrata la scelta più naturale perché sono state due donne a dar vita a questo progetto e, si sa, le donne sono generalmente più social e tendono a creare maggiore sinergia tra vita privata e professionale”.
Le protagoniste della campagna “#iosonociòchevedi” sono: Ippolita Baldini, attrice; Valeria Benatti, speaker radiofonica RTL e scrittrice; Annarita Briganti, giornalista culturale e scrittrice; Giada Curti – stilista; Margaret Dallospedale, blogger; Mafe de Baggis, (digital) media strategist; Laura Luz, cantante; Stefania Mariposa, fotografa; Benedetta Mazza, presentatrice; Selena Pellegrini, imprenditrice; Barbara Rossi, manager sportiva e pedagogista e la founder di #SMDAYIT + DIDAYS Eleonora Rocca.

 

Il 20 ottobre Giovanna Vitacca interverrà  al Mashable #SMDAYIT + DIDAYS per raccontare al pubblico la campagna “#iosonociòchevedi e i suoi primi risultati.

 

 

Advertising Week: consigli per i progetti video.

30 Views

Advertising Week: consigli per i progetti video.

Come al solito sono in ritardo, faccio una corsa e prendo il treno al volo. Le porte si chiudono dietro di me, al ragazzo con la barba salito un attimo prima si appannano gli occhiali, al mattino l’aria è ancora fresca.

Il treno corre e io ripenso ad una cosa che mi ha particolarmente colpito di Londra in questo periodo, la quantità di alberi in fiore, ci sono tantissimi splendidi ciliegi e anche molte magnolie che regalano emozioni.

Era lunedì, il primo giorno di primavera e al tempo stesso iniziava anche l’Advertising Week. Per chi non la conoscesse, l’Advertising week è un evento itinerante che al momento tocca quattro città: Londra, New York, Tokyo e Mexico City; dove i temi trattati sono quelli dell’advertising (ovviamente). È un evento talmente grande che non hanno una brochure dell’evento ma una rivista da 296 pagine.

Immaginerete che fare un resoconto di un evento come questo necessiterebbe di un articolo per ogni singolo intervento.
Ho deciso invece di “parlarvi” velocemente solo della Realtà Virtuale, e poi invece di riportarvi dei consigli molto utili che abbiamo ricevuto ad un workshop tenuto dal team Facebook Blueprint, consigli per i vostri progetti video.
Ho avuto finalmente modo di provare le versione commerciali dei visori VR Oculus e HTC, e anche, non li avevo mai visti, gli Hololens di Microsoft.

Non so voi, ma quando ero piccolo, mia madre era solita ripetermi di non stare troppo vicino alla televisione, ecco, ora con questi visori ci mettiamo un “monitor” a circa cinque centimetri dalla nostra retina.
Che dire? WOW!
Le sigle per chi ancora non si è avvicinato a questo mondo sono:
-VR, Virtual Reality, Realtà Virtuale.
-AR, Augmented Reality, Realtà Aumentata.

Con un visore VR, sarete totalmente immersi in un mondo virtuale, gli usi che si possono fare sono svariati e sicuramente non solo il gaming, anzi, pensavo che se avete un agenzia immobiliare potreste accogliere il vostro cliente nella vostra agenzia e fargli visitare alcune proposte che ritenete interessanti.
Il vostro cliente potrà tranquillamente muoversi all’interno della abitazione, sia che essa esista già o che sia ancora un progetto; potrà accendere o spegnere le luci e potrà, se vuole,  anche cambiare il colore delle pareti o l’arredamento interno. Questo per fare solo uno dei tanti esempi.

Con i visori VR, ho provato sia a disegnare in 3D ed è un’esperienza fantastica perché ti sembra di “costruire” qualcosa e ho guardato un video spot girato con le classiche telecamere 360, ed il bello di questi video è che tendenzialmente li potresti guardare molte più volte, perché ogni volta potresti decidere di guardare in una direzione diversa.

Per quanto riguarda gli HoloLens di Microsoft? Credo che questo video renda più di mille parole.

Il video inizia con la parola “GameChanger”, ed effettivamente, ti sembrerà di trovarti nel futuro solo per il fatto di averli addosso. Ma ritorniamo ad un presente più diffuso ed ai normali video.

Perché ho preferito soffermarmi su dei consigli pratici per i video? A causa di un dato molto importante:

“Nel 2020 il 75% del traffico dati su mobile sarà generato dai Video”

Oramai lo dicono tutti: Video, Video, Video. Ok, ma come? Oramai lo sappiamo, se dobbiamo sviluppare un sito web è sempre “Mobile First”, ma abbiamo lo stesso approccio anche per i video o l’advertising?

“Stiamo utilizzando una strategia e/o la generazione di contenuti con un approccio mobile first?”

Se state per iniziare un lavoro strategico, solitamente partite con un’analisi. Dunque anche in questo caso proviamo a fare una rapida analisi di come le persone solitamente usano lo smartphone. Facendo  particolare attenzione al contesto video, troveremo alcune caratteristiche ricorrenti:

-Frequente (guardiamo lo smartphone sempre più frequentemente).
-Veloce (abbiamo sviluppato un pollice che scrolla a velocità impensabili).
-Sound Off (solitamente i video partono senza musica e solamente dopo decidiamo di attivarla).
-Verticale (il nostro smartphone “trascorre” la maggior parte del suo tempo nelle nostre mani in posizione verticale).

Detto questo dunque dobbiamo cambiare paradigma e non possiamo pensare allo stesso modo in cui si realizzavano i video televisivi. Facciamo un esempio guardate questo video: prima di premere play attivate l’audio.

Divertente vero? Ora se avete tempo provate a guardarlo nuovamente senza audio, e immaginatevi di aver incontrato questo video nel vostro stream di Facebook, probabilmente non arriverete a metà del video che sarete già passati oltre.

Dunque cosa dobbiamo fare per ottenere il massimo dai nostri video?

Catturate l’attenzione velocemente! Questo consiglio in realtà vale in moltissimi casi, sia per un sito web, per un libro, per un film… Ma per un video nello stream di Facebook, avete ancora meno tempo a disposizione.
Pensate al vostro video senza audio (Design for sound OFF).
Play more, prova e sperimenta sempre cose nuove.

Un ottimo esempio di catturare l’attenzione è:

Effettivamente vedere un unicorno che sta facendo i propri bisogni, in un attimo cattura l’attenzione e ti “stimola” a guardarlo fino alla fine. Usate il testo per raccontare una storia:

https://www.youtube.com/watch?v=GeoUELDgyM4

Orizzontale o verticale?

Se parlate con qualsiasi video maker, probabilmente vi riderà in faccia al solo fatto che gli state facendo la domanda, ma in realtà quasi sempre il nostro cellulare è in posizione verticale, qui non c’è una soluzione magica, ma non date nulla per assodato, i video non sono solo orizzontali, potrete scegliere tra:

16:9 (Orizzontale) 1:1 (Quadrato) o 9:16 (Verticale)

Ma Facebook e Instagram ultimamente ci stanno offrendo anche altri strumenti, per esempio i Video Live. I video live, sono molto interessanti perché permettono un coinvolgimento maggiore del proprio pubblico con il quale si potrà se lo volete “dialogare” in tempo reale.

Un interessante esempio è quello di Mr. Robot:

We Are Everywhere #wearefsocietyMalaysia

Gepostet von Mr. Robot am Freitag, 8. Juli 2016

Molto interessante la scelta di iniziare con un countdown di circa tre minuti che serve a creare la base di utenti connessi.

Mr. Robot fa un uso sapiente dei Social Network e anche delle ultime tecnologie disponibili, per esempio realizzando un video a 360 gradi.

I video li potrete inserire anche all’interno dei “canvas”, vi ricordate che prima dicevamo una strategia “mobile first”?
Ecco, non è un caso che il Canvas di Facebook funzioni esclusivamente su mobile.
I principali vantaggi di utilizzare il canvas sono:
-tempi di caricamento ridotti: i contenuti vengono caricati più velocemente rispetto ad una pagina web (se la pagina web non si carica velocemente stiamo perdendo utenti!)
-Storytelling: nel canvas possiamo inserire, video, fotografie, slider, testi, call to action

Un altro esempio che abbiamo visto durante il workshop, è stato quello di Sonic, un brand che aveva pochissimi utenti su Instagram, ed allora cosa ha deciso di fare?

Quando il prodotto si adatta al media!

Ricapitolando:

1. Cattura l’attenzione in un battito di ciglia!
2. L’audio se arriva, arriverà solo in un secondo momento.
3. Orizzontale, quadrato o Verticale, trova la tua strada.
4. Sperimenta i nuovi strumenti: Live, Canvas, Video 360…
5. Ispirati a chi ha fatto dei successi.

E per concludere vi lascio con un ultimo consiglio ed una frase:

Consiglio: Utilizzate la Creative Hub di Facebook per prendere ispirazione dei lavori fatti da altri professionisti e per presentare i vostri lavori ai vostri clienti.
Vai al Creativa Hub di Facebook https://www.facebook.com/ads/creativehub/

Una frase che mi è piaciuta molto:

“Internet tira fuori il meglio ed il peggio di ognuno di noi!”

Ecco cerchiamo di amplificare solo le cose migliori. Buon lavoro!

Emanuele Ciccone
@emaposh

GOOGLE: The Magic in the Machine.

40 Views

GOOGLE: The Magic in the Machine.

Cos’ è il machine learning, come già ci facilita la vita e dove ci porterà.
(+ esperimenti divertenti da fare dal proprio pc) 


Non molto tempo fa poteva sembrare fantascienza, ora quanto meno futuro. Ma il machine learning, è già, sempre più, presente nelle nostre vite. E non si tratta neppure di una scienza nuova, perché il concetto di apprendimento automatico ha radici nel XVIII secolo, nel campo della statistica.
Per machine learning s’intende dunque l’apprendimento automatico di macchine – computer – in grado di imparare senza che siano state esplicitamente programmate per farlo.

——- 


Il funzionamento
del machine learning
A partire da una serie di esempi, la macchina ne coglie i pattern (ossia gli schemi) caratterizzanti per poi utilizzarli per fare previsioni su altri esempi simili.
Prendiamo in analisi la parola “cane”: una volta raccolti N esempi di foto con etichetta “cane” (e così per milioni di altre etichette) il computer va alla ricerca dei pattern di pixel e colori che lo aiutino a capire se nella foto c’è un cane; cerca di indovinare quali siano i pattern giusti per identificare i cani e continua il suo studio cercando un esempio di immagine di un cane per verificare se i pattern funzionano.


Queste operazioni vengono ripetute circa un miliardo di volte: la macchina osserva un esempio e, se il risultato non è corretto, modifica i pattern che sta usando per ottenere un risultato migliore. Alla fine, i pattern formano un modello basato sul machine learning, una rete neurale profonda, che può (quasi sempre) identificare correttamente cani, gatti, bambini, luoghi, tramonti e molte altre cose.


——- 


Il machine learning è già presente nella maggior parte dei prodotti di Big G, tra cui la Ricerca, Gmail, YouTube, Maps e Android.

All’interno di Google Foto, ad esempio, si può cercare qualsiasi cosa, “abbraccio” o “cane” e si troveranno tutte le foto che li contengono. Il sistema è stato istruito per riconoscere le immagini all’interno di foto e video.

Grazie a Google Translate è possibile parlare, scrivere o leggere in più di 100 lingue. Google è all’avanguardia nell’uso della traduzione automatica, che usa modelli statistici per tradurre i testi. Negli ultimi 6 mesi, Translate è ulteriormente migliorato grazie alla traduzione automatica basata sulle reti neurali. Il sistema neurale traduce intere frasi invece di tradurre pezzo per pezzo: usa un contesto più ampio per aiutarsi a scegliere la traduzione più attinente e la perfeziona per ottenere un risultato più simile alla parlata di un essere umano.

Con l’app Google basta pronunciare “Ok Google” sul vostro smartphone per avviare la ricerca e trovare le risposte che cercate. Il riconoscimento vocale trasforma i suoni in parole, l’elaborazione del linguaggio naturale favorisce la comprensione del significato, il Search ranking mostra i link con i risultati migliori.

È possibile rispondere alle mail toccando semplicemente un tasto: la funzione SmartReply di Inbox suggerisce la risposta affinché possiate rispondere alle mail con un gesto. Gmail e Chrome, inoltre, vi proteggono filtrando spam e malware.

——- 


Per il prossimo futuro tutto il settore sta lavorando per far sì che la macchina apprenda più velocemente, con meno esempi.
 Un metodo – e su questo Google si sta concentrando particolarmente – è ‘regolarizzare’ le macchine, dotarle cioè di più ‘buon senso’, in modo che di fronte ad un esempio leggermente diverso dagli altri – un cane con un cappello da cowboy è sempre un cane – la macchina non sia tratta in inganno.

——- 


Google Research Europe, un team di ricerca europeo dedicato al Machine Learning

La continua ricerca di Google nel campo del Machine Learning è alla base di molti dei prodotti utilizzati ogni giorno da centinaia di milioni di persone. L’obiettivo di Big G è quello di creare prodotti capaci di migliorare la vita quotidiana delle persone e, perché no, contribuire ad affrontare i problemi più grandi. Per far questo utilizza diverse tecniche di computer science, una delle più importanti tra le quali è sicuramente il machine learning.

A rendere possibili i continui progressi nel settore è l’enorme collaborazione tra i ricercatori Google nel mondo, che mettono a fattor comune un patrimonio unico di informazioni e idee su tecnologie e metodi all’avanguardia nel campo del Machine Learning, con l’obiettivo di sviluppare strumenti e prodotti utili.
Per questo motivo nel giugno 2016 è nato Google Research Europe con sede negli uffici di Zurigo della società.
Zurigo ospita anche il centro di ricerca di Google più grande al di fuori degli Stati Uniti. È qui che sono stati sviluppati il motore alla base di Knowledge Graph e il motore di conversazione alla base dell’assistente Google in Allo.
Oltre a portare avanti la collaborazione con i vari team di ricerca di Google, il team di ricerca europeo si concentra su tre aree fondamentali: machine learning; apprendimento ed elaborazione del linguaggio naturale e percezione artificiale.  In questi ambiti, il team lavora attivamente al miglioramento dell’infrastruttura di machine learning, facilitando così la ricerca e la successiva applicazione pratica. Inoltre, i ricercatori dell’ufficio di Zurigo lavorano a stretto contatto con il team di linguisti, con l’obiettivo di far progredire l’apprendimento del linguaggio naturale in collaborazione con i gruppi di ricerca di Google in tutto il mondo.
Attraverso il machine learning Google contribuisce anche ad affrontare alcune importanti problematiche. Ecco alcuni progetti recentemente annunciati:

  • Aiutare i patologi a diagnosticare il cancro attraverso il deep learning
    La diagnosi del tumore al seno e le conseguenti decisioni sul trattamento possono essere molto variabili, cosa non sorprendente data l’enorme quantità di informazioni che devono essere valutate al fine di effettuare una diagnosi accurata.
    Google sta come il deep learning possa essere applicato a supporto dei patologi, creando un algoritmo di identificazione automatica che possa essere un complemento del loro lavoro.
  • Risparmiare energia nei centri elaborazione dati
    Per ridurre il consumo energetico in Google. Si sta usando il machine learning: grazie alle le reti neurali si ottimizzano le operazioni dei data center e se ne riducono i consumi come mai prima d’ora.
  • Identificare i pregiudizi di genere nel cinema
    Il premio Oscar Geena Davis si è chiesta se i pregiudizi inconsci verso le donne portino le persone ad accettare che i personaggi femminili abbiano meno battute e meno visibilità degli uomini nei film. Per questo nel 2007 ha fondato il Geena Davis Institute on Gender in Media e ha cominciato a raccogliere dati. È stato un lavoro lungo e impegnativo: un team di ricercatori ha cominciato guardando un film alla volta e prendendo nota dei pattern basati sul genere. Poi è entrato in scena il machine learning, lo strumento ideale per capire e interpretare enormi quantità di dati complessi. Oggi un software misura accuratamente quanto spesso si vedano o si sentano le donne sullo schermo. Lo strumento ha imparato a riconoscere diversi personaggi sullo schermo, a determinarne il genere e a calcolare quante volte e per quanto tempo si parlano. I risultati sono stati significativi: gli uomini si vedono e si sentono quasi il doppio delle donne; le donne sono sottorappresentate in tutte le categorie, compresi i 100 film che hanno incassato di più negli ultimi tre anni; le donne si vedono appena nei film vincitori di Oscar: rappresentano il 32% delle immagini  e i 27% del parlato.

 

Gli strumenti di machine learning di Google sono aperti.
Il sistema di machine learning flessibile TensorFlow (www.tensorflow.org) è open source per consentire a tutti di sviluppare i propri modelli. Google offre anche diverse soluzioni semplificate, come ad esempio Speech, Vision, Translate API e il servizio TensorFlow gestito attraverso la piattaforma machine learning di Google Cloud (https://cloud.google.com/ml).

Per maggiori informazioni: http://research.google.com/pubs/MachineIntelligence.html

——- 

E ora… divertitevi con gli A.I. Experiments di Google, che mostrano come la macchina possa imparare a comprendere molte delle cose che ci circondano.

In Quick, Draw!, una rete neuronale cerca di riconoscere quello che state disegnando, il tutto usando la stessa tecnologia grazie a cui Google Translate riconosce la scrittura manuale. E più giocate, più il sistema impara.

Con A.I. Duet, invece, potete improvvisare un duetto al piano con il computer. Provate a suonare alcune note e il computer vi risponderà con una melodia.

O provate Giorgio Cam: scattate una foto e il computer vi dirà ciò che vede trasformandolo nelle parole di una canzone, magari in rima, sulla note di un brano del grande Giorgio Moroder.

 

 

Come recentemente fatto in questo post, ricordiamo che VENERDÌ 19 OTTOBRE GOOGLE SARÀ L’OSPITE D’APERTURA DEL MASHABLE SOCIAL MEDIA DAY ITALIA + DIGITAL INNOVATION DAYS.
Marianna GhirlandaHead of Creative Agencies di Google Italia – spiegherà alla platea Come avere successo grazie a YouTube, senza formule magiche, ma con tanta creatività e con la capacità di stupire con soluzioni inattese.