Augmented World
11.2K views | +0 today
Follow
Augmented World
News on Augmented Reality, Virtual Reality, Mixed Reality, UX/UI Designer, Internet of Things, Artificial intelligence, Quantum Computing, continually updated from thousands of sources around the net.
Curated by Mirko Compagno
Your new post is loading...
Your new post is loading...
Scooped by Mirko Compagno
Scoop.it!

The Future of Augmented Reality

A video demonstrating the possible future uses of mobile augmented reality and computer vision.

No comment yet.
Scooped by Mirko Compagno
Scoop.it!

Nextech AR Solutions Announces Limited Early Access to HoloX – Telepresence Creator Platform –

Nextech AR Solutions Announces Limited Early Access to HoloX – Telepresence Creator Platform – | Augmented World | Scoop.it
HoloX advances self-serve augmented reality human holograms VANCOUVER, British Columbia--(BUSINESS WIRE)--Nextech AR Solutions Corp. (“Nextech” or the “Company”) (OTCQB: NEXCF) (NEO: NTAR) (CSE: NTAR) (FSE: N29), a diversified leading provider of augmented reality (“AR”) experience technologies and services, is pleased to announce an exclusive, early access program for users to create, view and share their human…
No comment yet.
Scooped by Mirko Compagno
Scoop.it!

Extended Reality In Healthcare: 3 Reasons The Industry Must Get Ready For AR And VR

Extended Reality In Healthcare: 3 Reasons The Industry Must Get Ready For AR And VR | Augmented World | Scoop.it
Augmented Reality (AR) and Virtual Reality (VR) are transforming many industries, including healthcare. Here we explore the different ways these technologies are used for things like improving wellbeing, visualize medical data, and improve therapeutic treatments.
No comment yet.
Scooped by Mirko Compagno
Scoop.it!

ADVANCES IN AR AND VR WILL MAKE HUMAN GESTURES THE NEW COMPUTER INTERFACE

ADVANCES IN AR AND VR WILL MAKE HUMAN GESTURES THE NEW COMPUTER INTERFACE | Augmented World | Scoop.it
Think about this: Facebook is dedicating one-fifth of its staff to augmented and virtual reality—that’s about 10,000 people. More importantly, they are building a reality that will shape our reality in the near future. Our ability to “function” in and throughout the virtual and augmented world is advancing and this is establishing a new domain for our engagement in…
No comment yet.
Scooped by Mirko Compagno
Scoop.it!

Una call internazionale per selezionare 50 artisti digitali

Una call internazionale per selezionare 50 artisti digitali | Augmented World | Scoop.it
Le loro opere in 18 Comuni delle Madonie Una nuova call internazionale per selezionare 50 artisti digitali che saranno chiamati a produrre opere digitali nei 18 comuni partner (Alimena, Aliminusa, Bompietro, Caltavuturo, Castelbuono, Cerda, Geraci Siculo, Gratteri, Lascari, Petralia Soprana, Petralia Sottana, Polizzi Generosa, Pollina, San Mauro Castelverde, Sciara, Scillato, Sclafani Bagni, Valledolmo) del progetto…
No comment yet.
Scooped by Mirko Compagno
Scoop.it!

Death Mask, l'intelligenza artificiale che ti dice quanto vivrai

Death Mask, l'intelligenza artificiale che ti dice quanto vivrai | Augmented World | Scoop.it

L’esperimento condotto in realtà aumentata sfrutta i database online per il riconoscimento facciale e mostra il possibile futuro del marketing


I software di riconoscimento facciale sono sempre più raffinati; alcuni individuano, con buona approssimazione, il sesso e l’età delle persone inquadrate. 


Tra gli obiettivi delle software house c’è quello di fornire strumenti in grado di soddisfare la richiesta di sempre maggiore accuratezza dei loro clienti (individuare con precisione l’età di un utente online permette a un’azienda di migliorare l’offerta di prodotti e la conseguente conversione in acquisto).

Death Mask prova a spostare un po’ più in alto l’asticella tecnologica prevedendo, con un esperimento in realtà aumentata, l’aspettativa di vita delle persone. 


Attraverso il machine learning e l’accesso a database pubblici, Death Mask vuole dirigere l’attenzione degli utenti stessi verso strumenti e tecniche di mercato sempre più raffinati e pervasivi.

No comment yet.
Scooped by Mirko Compagno
Scoop.it!

La street art in realtà aumentata a Milano

La street art in realtà aumentata a Milano | Augmented World | Scoop.it

LA STREET ART IN REALTÀ AUMENTATA A MILANO
Arriva MAUA il primo museo diffuso e a cielo aperto con i 50 migliori murales della città.

A Milano arriva MAUA il primo museo diffuso e a cielo aperto di arte urbana in realtà aumentata. Nato dall’idea di proporre itinerari culturali inediti, fuori dal centro e dai più tradizionali circuiti dell’arte, MAUA raccoglie una selezione di 50 opere di street presenti in 5 quartieri milanesi. 


Ecco allora l’occasione per esplorare i distretti meno conosciuti della città a caccia delle più belle creazioni degli artisti di strada e una volta scovate ecco la novità: ogni opera, inquadrata con lo smartphone, ne genera una nuova e si trasforma in un lavoro di digital art, appositamente creato per il museo grazie a tecnologie di realtà aumentata.


MAUA è un museo che nasce dal progetto “Milano Città Aumentata”, uno tra i 14 vincitori del “Bando alle Periferie” promosso dal Comune di Milano per ripensare e valorizzare i quartieri. L’iniziativa è stata realizzato grazie a una rete di partenariato composta da Bepart, come capofila, insieme ad altre sei realtà: BASE Milano, Avanzi - Sostenibilità per Azioni, Terre di Mezzo, scuola CFP Bauer, PUSH.e la Fondazione Arrigo e Pia Pin. 

L’assessore alla Cultura Filippo Del Corno ha dichiarato: “Un museo è un luogo in cui si testimonia un momento, un passaggio, un pensiero; uno spazio in cui si conserva la memoria di un tempo raccogliendone tracce e segni, in modo che quelle esperienze, viste, vissute e approfondite, possano essere utili allo sviluppo di una comunità.”  

Ed è proprio a comunità ad aver selezionato le opere più rappresentative della propria zona che sono poi state fotografate insieme agli studenti e professori della scuola CFP Bauer, fino alla selezione finale 10 dieci murales per ciascuno dei cinque quartieri coinvolti nell’iniziativa: Giambellino-Lorenteggio, Adriano-Padova-Rizzoli, Corvetto-Chiaravalle-Porto di Mare, Niguarda-Bovisa e Qt8-Gallaratese. 

L’evento di inaugurazione di MAUA è fissato per domenica 17 dicembre a BASE con una mostra fotografica delle 50 opere selezionate, che potranno essere ammirate anche in realtà aumentata offrendo un’anteprima della visita reale.

No comment yet.
Scooped by Mirko Compagno
Scoop.it!

Blockchain e realtà mista, la coppia del futuro

Blockchain e realtà mista, la coppia del futuro | Augmented World | Scoop.it

L'utilizzo della blockchain nell'ambito della realtà mista ne potrebbe uteriormente favorire l'adozione. 


Spesso e volentieri, le migliori innovazioni nel settore tecnologico nascono dalla "contaminazione" tra due branche che, almeno apparentemente, hanno poco a che fare l'una con l'altra. Succede così, ad esempio, che la realtà aumentata e la realtà virtuale potranno trovare un inaspettato alleato nella blockchain. 


La tecnologia fondante dei Bitcoin, secondo diversi esperti, potrebbe fornire alle applicazioni della realtà virtuale e della realtà aumentata quell'ulteriore spunto necessario per diventare nel lasso di tempo più breve possibile il nuovo fenomeno economico-commerciale dell'universo hi-tech.

A beneficiarne, in particolare, dovrebbe essere la cosiddetta mixed reality, ovvero l'unione in un unico prodotto delle tecnologie alla base della realtà virtuale e di quella aumentata. Grazie alla blockchain, infatti, si potrebbero aprire nuovi scenari per la monetizzazione di particolari applicazioni della realtà mista; oppure incrementare il livello di sicurezza in alcuni casi di utilizzo molto particolari questa tecnologia. 


Si tratta, al momento, di scenari ipotetici e in piena fase di sviluppo che, però, nei prossimi mesi e anni potrebbero entrare a far parte della nostra quotidianità. Meglio, insomma, farsi trovare preparati.

Nuove forme di monetizzazione
La blockchain, con la sua enfasi su sicurezza, decentralizzazione e indipendenza da grandi centri di controllo, può aiutare le piccole e piccolissime imprese e freelance (come sviluppatori indipendenti, ad esempio) a essere remunerati più facilmente per il lavoro o le prestazioni professionali che svolgono.

La realtà virtuale, da qui a qualche anno, permetterà di assistere a concerti e altri spettacoli dal vivo anche se ci si trova a centinaia o migliaia di chilometri di distanza dal luogo dove si sta svolgendo l'esibizione. Grazie alla blockchain, questi artisti potranno essere pagati in maniera sicura e istantanea, accettando pagamenti in Bitcoin o una delle tante altcoin oggi disponibili sul mercato.

Ma la blockchain potrebbe tornare utile anche a un artista – pittore, ceramista o scultore – che vorrebbe vendere le sue opere senza essere costretto a rivolgersi a gallerie private o case d'asta. Sarà sufficiente creare un tour virtuale e a 360 gradi della propria esposizione per accogliere, grazie a visori VR, possibili acquirenti da tutto il mondo. Legando questa esperienza VR alla blockchain, l'artista potrà essere pagato in criptovaluta nel momento stesso in cui l'acquirente sceglie la propria opera.

Metodo anticontraffazione
Come dimostrato dall'apertura del primo punto vendita di Amazon Go (o da vari esperimenti condotti da tempo in Giappone) il futuro dei punti vendita (siano essi supermarket, centri della grande e piccola distribuzione, negozi di elettronica o abbigliamento) è virtuale. Nel senso che gli utenti potranno entrare, fare compere come sempre e poi uscire dal negozio senza esser costretti a fermarsi alla cassa: un sistema di scansione automatica basato su chip RFID ed NFC, infatti, terrà conto di ciò che mettete nel carrello e stabilirà il totale senza che ci sia bisogno di un cassiere o un addetto del punto vendita. Il pagamento, ovviamente, sarà contactless via smartphone o carta di credito.

In questo scenario, la blockchain garantirà sia i pagamenti, sia l'origine di quello che state acquistando. Grazie a visori AR, infatti, si potrà controllare l'origine della mela o delle fettine che si stanno per acquistare (allevatore o coltivatore, a seconda dei casi) o il produttore del divano che si vorrebbe tanto al centro del proprio salotto.

Da gioco a realtà
I videogame sono, al momento, una delle applicazioni più promettenti (e sviluppate) della realtà virtuale. Grazie alla blockchain, i mondi virtuali nei quali ci si ritrova a videogiocare potrebbero somigliare sempre più al mondo reale nel quale si vive? senza visore. La tecnologia alla base dei Bitcoin, infatti, permetterebbe di fare acquisti in-app tracciati e sicuri, ma consentirebbe allo stesso tempo di verificare l'identità degli avatar che ci si trova di fronte, avendo così la certezza che non si tratti di un bot creato da un computer o di un truffatore. La combinazione di grafica tridimensionale, visori e periferiche VR e della blockchain potrebbe rendere sempre più complessi i mondi virtuali all'interno dei quali si svolgono le avventure videoludiche, trasformandoli in un "analogo virtuale" del mondo reale.

Una nuova realtà
Le potenzialità della blockchain e le sue applicazioni, però, sono virtualmente infinite. Applicandola ai settori più svariati, potrebbe permettere di riequilibrare l'economia reale, slegandola dalle logiche di controllo di istituzioni centrali nazionali e sovranazionali e favorendo lo sviluppo di economie "peer-to-peer" sempre più avanzate e complesse. La nostra stessa vita sociale potrebbe essere rivoluzionata dalla combinazione di mixed reality e blockchain: potendo verificare istantaneamente l'identità degli avatar con cui si hanno relazioni nel mondo della realtà virtuale, si potrebbero avere meno timori su possibili truffe o tentativi di social engineering o phishing.

No comment yet.
Scooped by Mirko Compagno
Scoop.it!

Artificial Intelligence and NASA Data Used to Discover Eighth Planet Circling Distant Star

Our solar system now is tied for most number of planets around a single star, with the recent discovery of an eighth planet circling Kepler-90, a Sun-like star 2,545 light years from Earth. 


The planet was discovered in data from NASA’s Kepler space telescope. The newly-discovered Kepler-90i -- a sizzling hot, rocky planet that orbits its star once every 14.4 days -- was found by researchers from Google and The University of Texas at Austin using machine learning. 


Machine learning is an approach to artificial intelligence in which computers “learn.” In this case, computers learned to identify planets by finding in Kepler data instances where the telescope recorded signals from planets beyond our solar system, known as exoplanets.


“Just as we expected, there are exciting discoveries lurking in our archived Kepler data, waiting for the right tool or technology to unearth them,” said Paul Hertz, director of NASA’s Astrophysics Division in Washington. 


“This finding shows that our data will be a treasure trove available to innovative researchers for years to come.” The discovery came about after researchers Christopher Shallue and Andrew Vanderburg trained a computer to learn how to identify exoplanets in the light readings recorded by Kepler – the minuscule change in brightness captured when a planet passed in front of, or transited, a star. 


Inspired by the way neurons connect in the human brain, this artificial “neural network” sifted through Kepler data and found weak transit signals from a previously-missed eighth planet orbiting Kepler-90, in the constellation Draco. While machine learning has previously been used in searches of the Kepler database, this research demonstrates that neural networks are a promising tool in finding some of the weakest signals of distant worlds. 


 Other planetary systems probably hold more promise for life than Kepler-90. About 30 percent larger than Earth, Kepler-90i is so close to its star that its average surface temperature is believed to exceed 800 degrees Fahrenheit, on par with Mercury. 


Its outermost planet, Kepler-90h, orbits at a similar distance to its star as Earth does to the Sun. “The Kepler-90 star system is like a mini version of our solar system. You have small planets inside and big planets outside, but everything is scrunched in much closer,” said Vanderburg, a NASA Sagan Postdoctoral Fellow and astronomer at the University of Texas at Austin. Shallue, a senior software engineer with Google’s research team Google AI, came up with the idea to apply a neural network to Kepler data. 


He became interested in exoplanet discovery after learning that astronomy, like other branches of science, is rapidly being inundated with data as the technology for data collection from space advances. “In my spare time, I started googling for ‘finding exoplanets with large data sets’ and found out about the Kepler mission and the huge data set available,” said Shallue. 


"Machine learning really shines in situations where there is so much data that humans can't search it for themselves.” Kepler’s four-year dataset consists of 35,000 possible planetary signals. Automated tests, and sometimes human eyes, are used to verify the most promising signals in the data. However, the weakest signals often are missed using these methods. Shallue and Vanderburg thought there could be more interesting exoplanet discoveries faintly lurking in the data. 


 First, they trained the neural network to identify transiting exoplanets using a set of 15,000 previously-vetted signals from the Kepler exoplanet catalogue. In the test set, the neural network correctly identified true planets and false positives 96 percent of the time. Then, with the neural network having "learned" to detect the pattern of a transiting exoplanet, the researchers directed their model to search for weaker signals in 670 star systems that already had multiple known planets. Their assumption was that multiple-planet systems would be the best places to look for more exoplanets. 


We got lots of false positives of planets, but also potentially more real planets,” said Vanderburg. “It’s like sifting through rocks to find jewels. If you have a finer sieve then you will catch more rocks but you might catch more jewels, as well.” Kepler-90i wasn’t the only jewel this neural network sifted out. In the Kepler-80 system, they found a sixth planet. This one, the Earth-sized Kepler-80g, and four of its neighboring planets form what is called a resonant chain – where planets are locked by their mutual gravity in a rhythmic orbital dance. 


The result is an extremely stable system, similar to the seven planets in the TRAPPIST-1 system. Their research paper reporting these findings has been accepted for publication in The Astronomical Journal. Shallue and Vanderburg plan to apply their neural network to Kepler’s full set of more than 150,000 stars. Kepler has produced an unprecedented data set for exoplanet hunting. 


After gazing at one patch of space for four years, the spacecraft now is operating on an extended mission and switches its field of view every 80 days. “These results demonstrate the enduring value of Kepler’s mission,” said Jessie Dotson, Kepler’s project scientist at NASA’s Ames Research Center in California’s Silicon Valley. 


“New ways of looking at the data – such as this early-stage research to apply machine learning algorithms – promises to continue to yield significant advances in our understanding of planetary systems around other stars. I’m sure there are more firsts in the data waiting for people to find them.” 


Ames manages the Kepler and K2 missions for NASA’s Science Mission Directorate in Washington. NASA's Jet Propulsion Laboratory in Pasadena, California, managed Kepler mission development. Ball Aerospace & Technologies Corporation operates the flight system with support from the Laboratory for Atmospheric and Space Physics at the University of Colorado in Boulder. This work was performed through the Carl Sagan Postdoctoral Fellowship Program executed by the NASA Exoplanet Science Institute.

No comment yet.
Scooped by Mirko Compagno
Scoop.it!

Google pulls the plug on Project Tango, pushes ARCore for augmented reality

Google pulls the plug on Project Tango, pushes ARCore for augmented reality | Augmented World | Scoop.it

This is certainly no surprise, but just the same, we can confirm that Google is officially ending its support for Project Tango and other Tango-related products. Instead, the mothership is going to move forward in the realm of augmented reality (AR) with its new ARCore platform. We wondered what would become of Tango in the long run when Google announced ARCore, and now that question is officially answered.

Google started dabbling in AR with Project Tango a couple of years back. But the efforts never really got the traction it needed with manufacturers since the platform was very specific on hardware. The furthest Project Tango got was being released in devices like the Lenovo Phab 2 Pro and the ASUS ZenFone AR. But because of the lack of support for the platform on multiple fronts, Google has come to its decision – it will end support for Tango by March 1, 2018.

In ARCore, however, Google has found an AR platform for phones that did not require very specific hardware. When ARCore was launched, it was akin to being able to bring AR for the masses – even lower tier devices. And so Google has opted to move forward in the realm of augmented reality with ARCore, as it has found more support from manufacturers and developers.

No comment yet.
Scooped by Mirko Compagno
Scoop.it!

The Future Is About Empathy, Not Coding

The Future Is About Empathy, Not Coding | Augmented World | Scoop.it

At the dawn of the Fourth Industrial Revolution, automation and digitization of our worlds and workplace are continuing, changing the job market, the nature of many jobs and even the concept of what it means to be working. Many fear that robots and automation will take their jobs without alternatives. The phenomenon is not new: in the 19th century, members of the Luddite movement – textile workers and weavers – destroyed weaving machinery in protest and fear that machines would take their place in their industry.

Lately, the same fears emerge in healthcare about artificial intelligence taking the jobs of radiologists, robots surpassing the skills of surgeons, or taking jobs in pharma. A renowned voice in tech, Kai-Fu Lee, founder of venture capital firm Sinovation Ventures told CNBC that A.I. will be bigger than all other tech revolutions, and robots are likely to replace 50 percent of all jobs in the next decade. Stephen Hawking even said that the development of full A.I. could spell the end of the human race. Elon Musk agreed.

Is basic income tax the solution? Or turning to coding?

As the fears of losing the battle against new technologies grow exponentially, alternatives on the individual and social level already surfaced. The most popular policy-level concept is the introduction of the universal basic income, in which case the government would give everyone just enough money to live on while creating incentives for individuals to take risks, start businesses, change jobs, return to school or try a new career. 


Another idea is the negative income tax, where the state would give the poor money the same way as in the case of taxing rich people; but Bill Gates would tax robots and some economists think the solution lies at the heart of governments creating more jobs.

While these responses for the challenges of automation and digital technologies are only ideas at the moment – except for the national-scale experiment of Finland with universal basic income -, it is natural that people are making steps to secure their own futures. No wonder that so many are considering to give up their current profession and try their luck in programming, coding, and entrepreneurship in general. 


As it seems that the hottest professions of the day are those dealing with data science, coding and computing. While many think that it might even be the case in healthcare, I believe that if someone truly pictures himself or herself among medical professionals in the future, other skills, such as the futurist mindset and social skills coupled with sound digital literacy might be more important than coding or entrepreneurial spirit.

The importance of the futurist mindset

I’m not saying that everyone should get a crystal ball and concentrate strongly on what it is trying to say. Yet, it is important to look ahead and continuously monitor the current trends with a notion of how it might affect one’s job, family or environment in general. Personal computers, laptops are only around for a couple of decades, not to speak about the wonder called world wide web! In the 1950s, no one would have thought that a little bit more than 60 years later, the most pursued jobs and skills will be those of the data scientists and coders.

Many jobs that might be around in healthcare in a couple of years, do not exist yet. What if we will have robot companion technicians soon? What about gamification specialists or AR/VR operation planners? While they all might be possible, you cannot really prepare for them only by studying more coding or data science. What everyone needs to understand is that the most important is to familiarize with the latest technologies and prepare for the changes in time. 


We have to have meaningful conversations about how such changes affect people and the future generations. For example, the generation born today will play with AI friends and have VR teachers. That might come with a completely different view on the worlds as ours today, so we need to be open, mindful and curious. Just as a futurist!

Social skills and empathy

In healthcare, soft skills such as empathy – and the jobs connected with it will be valued more and more in the future. It makes complete sense. Automation, robots and artificial intelligence will perform certain cognitive tasks brilliantly to the extent that humans will not be able to compete. Where could humans have a chance? At the so-called soft skills: creativity, empathy, compassion and paying attention to each other. 


Although artificial intelligence will perform diagnostic tasks or robots might be able to do surgeries, but could they talk to a patient with empathy about the risks and consequences of an operation?

Moreover, as digital health simplifies administration and cuts down on monotonous tasks, the workload of doctors and nurses will be reduced, so they will be able to concentrate on what really matters – healing the patient and guiding him through the entire process with care. I think, eventually, AI would be able to mimic even such soft skills but as we are social beings, we will always need the human touch.

The shift towards jobs requiring soft skills already shows in the numbers. The US Bureau of Labor Statistics predicts that while jobs for doctors and surgeons will rise by 14 per cent between 2014 and 2024, the top three direct-care jobs – personal-care aide, home-health aide, and nursing assistant – are expected to grow by 26 per cent.

However, as Livia Gershon writes here, we seriously need to rethink our perspective towards jobs requiring social skills; as they are usually underpaid and undervalued. As care work and other types of labor containing mainly soft skills cannot contribute to the GDP growth as effectively as other types, the global economic system cannot value it appropriately. 


However, as the age of artificial intelligence and robots is coming, soft skills become much more valued and those who plan to enter the social care sector now will reap the benefit of it – not to speak about patients and society in general!

Digital literacy

Although I argue against medical professionals massively going into coding and programming in general, I am certainly not against digital technology and digital literacy. On the contrary! I believe that it is way more important than many other skills in today’s digital world. I only think that it is more relevant to interact and use technology than to understand it down to the tiniest detail. Especially for medical professionals.

Although in the future, it also might change what digital literacy means. Plenty of schools started to incorporate the basics of computer science, coding and programming into their courses. For example, former US President Barack Obama announced a ‘computer science for all’ program for elementary and high schools in the United States. And while I’m all for STEM education, I would be happy to see schools focusing more on voluntary work in helping the elderly or other groups of people in need, as what kids learn there might be more valuable than Python in the future.

While acquiring new skills related to digital technologies, of course, makes sense, in healthcare, it might make even more sense to focus on skills we should have been good at but the nature of our profession didn’t allow it. With disruptive technologies, physicians would finally have time to focus on the patient, deal with challenging decisions and enjoy their profession again.

No comment yet.
Scooped by Mirko Compagno
Scoop.it!

Didattica del futuro, lezioni con la realtà aumentata

Didattica del futuro, lezioni con la realtà aumentata | Augmented World | Scoop.it

È stato presentato l’11 settembre da Apple alla WWDC17 (Worldwide Developers Conference) l’ingresso ufficiale del mondo IOS nella realtà aumentata.


Grazie alla piattaforma chiamata Arkit, gli sviluppatori potranno creare esperienze con l’AR con la sovrapposizione di immagini digitali e animazioni su ciò che si vede nel mondo reale attraverso la telecamera dei propri dispositivi.


Una tecnologia che cambierà il mondo del gaming, del turismo del training on the job e della formazione.
La tecnologia della realtà aumentata in realtà esiste già da qualche anno ma solo negli ultimi anni la grande diffusione degli smartphone ha contribuito a renderla più conosciuta e utilizzata. Secondo gli esperti di Apple, la nuova applicazione contribuirà ulteriormente alla diffusione capillare anche in considerazione dei milioni di apparati IOS utilizzati nel mondo.


L’AR per funzionare ha bisogno di una fotocamera che riprenda un ambiente reale, sul quale sono poi sovrapposti gli oggetti virtuali.
La parte complicata è quella di fare in modo che l’oggetto virtuale risulti il più realistico possibile nel contesto in cui si trova: deve quindi restare fermo rispetto agli altri oggetti reali, come se si trovasse effettivamente nell’ambiente.


Già numerose le applicazioni disponibili, alcune già mature come quella sviluppata dalla famosa azienda di mobili svedese Ikea, che consente di aggiungere arredi virtuali alla propria abitazione e poter vedere che effetto fanno i mobili all’interno della propria casa.
Il grande motore di ricerca delle GIF animate (Giphy) ha preparato una app per inserire animazioni in uno spazio reale tridimensionale, che possono poi essere condivise con altre persone che usano la stessa applicazione.


Alcune aziende hanno invece sviluppato giochi in cui l’ambiente di gioco 3D è sovrapposto all’ambiente reale in cui ci si trova e non ci sono comandi tradizionali per muovere il suo protagonista, ma per farlo si deve guardare lo schermo dello smartphone allineando alcuni punti.


Molto interessante anche l’ambito della lettura, da vedere come possibile ambito didattico : il “piccolo bruco maisazio”, uno dei libri per l’infanzia più conosciuti viene trasformato in una sorta di libro virtuale interattivo, con il bruco che si muove in un ambiente reale grazie alla realtà aumentata. Si possono seguire le vicende del bruco ma anche interagire con lui e con le cose che gli stanno intorno.


Con ogni probabilità ARKit è solo l’inizio: secondo quanto sostengono in Apple, l’Phone 8 integrerà hardware dedicato per esperienze in realtà aumentata ancora più precise, dettagliate e realistiche, tra cui un sensore per rilevare la distanza e la profondità degli oggetti, evoluzione che darà ancora più spazio alla fantasia degli sviluppatori.
 
 Ovviamente Google, non starà a guardare. In realtà era partita prima con il lancio nel 2014 di TANGO che prevede nei piani il rilascio entro il 2020 di molte applicazioni.


Al momento, però, sono poche le aziende che hanno deciso di puntare a questa piattaforma perché Tango sfrutta dei sensori sulla fotocamera per tracciare i movimenti e l’interazione con lo spazio. Sensori che sono fondamentali per l’AR di Google. Purtroppo, però, la maggior parte dei produttori di hardware nell’ultimo periodo ha realizzato smartphone senza questi sensori e quindi la diffusione della piattaforma va a rilento.


Ci immaginiamo nei prossimi anni, una importante diffusione dell’AR anche in ambito scolastico e didattico.
La realtà virtuale consente una totale immersione all’interno del contenuto formativo che è possibile “esplorare” in qualsiasi direzione e muovendosi all’interno di esso.


Il maggior coinvolgimento dentro lo scenario consentirà un miglior apprendimento con minor sforzo. Immaginate come può diventare interattivo e più interessante la visita ad un museo, lo studio della storia: l’esperienza sensoriale consentirà agli studenti di vivere esperienze molto più interessanti che facilmente rimarranno loro impresse.


Ma non solo: attraverso un monitor, è possibile guidare passo passo i lavori da compiere ad esempio all’interno di un ambiente che ricrea perfettamente la realtà, impartendo istruzioni tanto agli studenti, sulla conoscenza degli strumenti tecnici.


Dagli ambienti di trainingaziendale, con esperienze immersive che mostrano ai dipendenti come eseguire le operazioni più semplici, come montare e smontare le componenti di una macchina utensile, e quelle più complesse ma anche laboratori digitali negli istituti tecnici per i lavoratori di domani, che insegnano agli studenti a lavorare con parchi macchine nuovi e al passo con i tempi.
Il futuro della didattica passerà dunque sicuramente anche attraverso esperienze di realtà aumentata.

No comment yet.
Scooped by Mirko Compagno
Scoop.it!

ONNX è una piattaforma open source nata dall'interazione fra le IA di Facebook e Microsoft

ONNX è una piattaforma open source nata dall'interazione fra le IA di Facebook e Microsoft | Augmented World | Scoop.it
C’è chi prosegue il loro sviluppo in maniera spasmodica e c’è chi, invece, ci mette in guardia circa la loro potenziale pericolosità nei nostri confronti. Stiamo parlando delle intelligenze artificiali, piattaforma di machine learning sulle quali si basano ormai la maggior parte dei servizi online.

Paradossalmente però, nell’essere molto intelligenti nel fare determinate cose, le attuali versioni sono molto “stupide” nel farne altre. Infatti, all’infuori del loro campo di azione, sono del tutto inutili. Per cercare di correggere il tiro, Microsoft e Facebook hanno annunciato di aver collaborato negli scorsi mesi creando la piattaforma open source Open Neural Network Exchange, abbreviata in ONNX.

Essa è il frutto dell’interazione di MS Cognitive Toolkit, FB Caffe2 e FB PyTorch (in futuro potrebbero unirsene di nuove. Il suo scopo ultimo invece è quello di fornire una flessibilità maggiore a tutti quegli scienziati che necessitano di specifici tipi di calcolo (potendo utilizzare per ogni task una piattaforma diversa) oppure ai produttori di hardware che possono aggiornare con velocità più framework in una volta sola.

ONNX LANCIA LA SFIDA A TENSORFLOW
Al momento non sono stati pubblicizzati dei progetti importanti che fanno uso della piattaforma ONNX (il codice su Github è stato appena pubblicato). Probabilmente però è solo una questione di settimane, visto il processo di sviluppo sempre più rapido.

La cosa interessante di ONNX è la grande concorrenza e pressione che mette a TensorFlow, il framework proposto da Google ormai da qualche anno(anch’esso open source). Vedremo se le due piattaforme continueranno a concorrere oppure se vi sarà una fusione.
No comment yet.
Scooped by Mirko Compagno
Scoop.it!

Covid and Big Tech are pushing Augmented Reality into modern healthcare

Covid and Big Tech are pushing Augmented Reality into modern healthcare | Augmented World | Scoop.it
Augmented Reality tech is helping hospitals to deliver better patient care while at the same time cutting down on Covid infection danger.
No comment yet.
Scooped by Mirko Compagno
Scoop.it!

LIKE BEAUTY IN FLAMES –

LIKE BEAUTY IN FLAMES – | Augmented World | Scoop.it
LIKE BEAUTY IN FLAMES is a new work by renowned artist Jenny Holzer that presents her signature text-based art through the medium of augmented reality (AR). This unique artwork, made exclusively for the Guggenheim Museum Bilbao and accessed through a standalone application for mobile devices, provides three distinct AR experiences—two site-specific works that engage the Guggenheim…
No comment yet.
Scooped by Mirko Compagno
Scoop.it!

HUA ZHIBING: LA PRIMA STUDENTESSA VIRTUALE CINESE

HUA ZHIBING: LA PRIMA STUDENTESSA VIRTUALE CINESE | Augmented World | Scoop.it
Hua Zhibing, la prima studentessa virtuale cinese sviluppata dalla Tsinghua University ha incontrato i fan giovedì quando ha aperto un account sulla piattaforma cinese Sina Weibo (sito di microblogging cinese). Nel primo post su Weibo, la studentessa virtuale di nome Hua Zhibing, ha salutato i netizen cinesi e ha detto che inizierà a studiare nel…
No comment yet.
Scooped by Mirko Compagno
Scoop.it!

EDP employs augmented reality to improve customer experience

EDP employs augmented reality to improve customer experience | Augmented World | Scoop.it
European energy company EDP has deployed a technology to enhance operational efficiencies, to better resolve customers’ issues, and to carry out remote site surveys prior to the installation of solar panels. The technology to be deployed is Vodafone Visual Assistance. It will be provided to consumers and field technicians in multiple EDP subsidiaries and will…
No comment yet.
Scooped by Mirko Compagno
Scoop.it!

Ubisoft e Renault realizzano un'esperienza VR per Symbioz

Ubisoft e Renault realizzano un'esperienza VR per Symbioz | Augmented World | Scoop.it

Cosa hanno in comune una società produttrice di videogiochi e una casa automobilistica? La passione per la realtà virtuale. Ubisoft e Renault hanno inaugurato una speciale collaborazione per realizzare insieme un’originale esperienza VR e portarla a bordo di un veicolo del tutto autonomo. Fantascienza? No, è il progetto Symbioz Demo Car.

Ubisoft porta la realtà virtuale sul veicolo autonomo di Renault
Symbioz è il nome del nuovo veicolo concept della casa francese, il primo prototipo funzionante connesso ed elettrico, concepito per essere autonomo sin dall’inizio. Ubisoft sembra essersi interessata parecchio al progetto di Renault, al punto da realizzare – in stretta collaborazione con la compatriota – un’inedita esperienza immersiva basata sull’utilizzo della realtà virtuale a bordo del veicolo.

La prima dimostrazione di questo progetto è stata data su una sezione di autostrada a nord di Parigi, dove Renault ha testato il suo prototipo in condizioni reali: è in tale occasione che Ubisoft ci ha messo il suo zampino.

Indossando il visore VR, il guidatore potrà distrarsi da ciò che lo circonda e cogliere l’occasione per rilassarsi, lasciandosi catapultare in un panorama futuristico e surrealista. Questa esperienza è legata alla riproduzione dei dati di navigazione dell’auto in tempo reale, quali le variazioni di velocità, i cambi di corsia e i veicoli circostanti, elementi che influenzeranno costantemente il nostro viaggio virtuale, migliorandone l’immersione e la sensazione di evasione.

Deborah Papiernik, VP senior New Business di Ubisoft, ha commentato così l’iniziativa nata tra l’azienda videoludica e la casa automobilistica:

“Questo progetto è un’opportunità unica per affrontare una sfida tecnica e creativa. Ubisoft è sempre lieta di collaborare con importanti leader di mercato internazionali per esplorare nuovi settori innovativi e arricchire il proprio know-how. La nostra collaborazione con il Gruppo Renault illustra chiaramente che il contributo dell’industria videoludica va ben oltre l’intrattenimento”.

No comment yet.
Scooped by Mirko Compagno
Scoop.it!

Magic Leap One, smart glass per la mixed reality

Magic Leap One, smart glass per la mixed reality | Augmented World | Scoop.it

La startup, fondata nel 2010 e finanziata da vari investitori, tra cui Google e Qualcomm, ha finalmente svelato il suo sistema per la mixed reality. Magic Leap One è composto da tre parti, una coppia di occhiali, un piccolo computer e un controller. L’azienda ha usato il termine “Creator Edition” per indicare il target principale, ovvero gli sviluppatori di contenuti. L’avveniristico gadget arriverà sul mercato nel corso del 2018.

Il lavoro di Magic Leap è rimasto un mistero per molti anni. Nessuno aveva mai visto un prototipo, fino all’inizio di febbraio, tanto da far nascere dubbi sulle capacità del visore. Nonostante ciò, l’azienda ha ricevuto quasi 2 miliardi di dollari e raggiunto una valutazione di 6 miliardi di dollari. Quello annunciato oggi è il sistema di nona generazione, la prima che sarà disponibile al pubblico. Come detto, Magic Leap One è formato da tre componenti: Lightwear, Lightpack e Control.

Lightwear sono smart glass leggeri e confortevoli che verranno offerti in due dimensioni e potranno essere utilizzati anche insieme agli occhiali da vista. Per creare il mondo virtuale e inserire gli oggetti digitali nel mondo reale vengono sfruttate diverse tecnologie per la mappatura dell’ambiente e il tracciamento della posizione. La tecnologia Digital Lightfield permette di generare una luce digitale a differenti profondità che si fonde con la luce naturale, in modo da ingannare il cervello e consentire all’utente di vedere oggetti virtuali. Negli occhiali sono integrate sei videocamere, due altoparlanti e quattro microfoni.

Lightwear è collegato a Lightpack, un piccolo computer di forma circolare che può essere fissato alla cintura del pantalone. All’interno ci sono vari componenti, tra cui CPU, GPU e batteria, ma non sono note le specifiche complete. Il CEO Rony Abovitz ha dichiarato solo che la potenza è simile a quella di un MacBook Pro e un PC Alienware. Control è infine il controller con feedback aptico e sei gradi di libertà.

Magic Leap One supporta diversi tipi di input, tra cui gesture, comandi vocali e tracciamento oculare. Il sistema sarà disponibile all’inizio del 2018 insieme a tutto l’occorrente per gli sviluppatori (SDK, tool e documentazione). Il prezzo non è stato comunicato. Una delle prime app è Tónandi, realizzata in collaborazione con il gruppo rock Sigur Rós.

No comment yet.
Scooped by Mirko Compagno
Scoop.it!

I cyborg sono già tra noi: scopriamo chi sono

I cyborg sono già tra noi: scopriamo chi sono | Augmented World | Scoop.it

Prima di iniziare, c’è un elemento da chiarire subito, perché rappresenta un errore che risiede nelle nostre teste: come immaginiamo un cyborg?
Di base, si immaginano i cyborg come robot umanoidi dotati di un’intelligenza artificiale super avanzata. I cyborg che popolano la nostra fantasia hanno come unico scopo nella loro infinita vita quello di sterminare la razza umana, per questioni di dominio o chissà cos’altro.

Il motivo di ciò è da imputare a film, libri e fumetti fantascientifici, spesso improntati sulla paura. Questo forse per avere più attenzione da parte dello spettatore, perché un sentimento negativo, come la paura, riesce a tenerti incollato allo schermo (o al libro, o al fumetto), al contrario –ad esempio-  di un sentimento positivo, come la curiosità del futuro. Così, non ci rendiamo conto che, invece, siamo già circondati dai veri cyborg da anni.

Il transumanesimo
Facciamo un ulteriore passo in avanti e definiamo il transumanesimo: è una corrente di pensiero che propone di utilizzare in modo invasivo tutte le forme di tecnologie immaginabili (e ancora inimmaginabili) per superare i limiti umani, quali:
– invecchiamento, ovvero il deterioramento del corpo umano, che ha come conseguenza la morte;
– malattie
-mutazioni genetiche
– capacità mentali e fisiche.

Il transumanesimo è attualmente un futuro molto lontano e parecchio esasperato, ma può esserci da punto di partenza per parlare dei cyborg.

L’anno scorso, a ottobre 2016, in Svizzera, si sono tenute le Cybathlon, il primo evento sportivo orientato completamente verso atleti che usano dispositivi high-tech (protesi, esoscheletri e altri dispositivi robotici ed assistivi).
Di differenziano dalle Paralimpiadi perché non si tratta di sport “comuni” praticati da persone diversamente abili. Si tratta di discipline totalmente nuove, che spesso possono fare esclusivamente i cyborg.
Ad esempio c’è la Corsa Brain Computer Interface, dove persone che utilizzano la BCI controllano degli avatar che devono correre lungo un percorso.

Lo scopo del Cybathlon è sia di invogliare a investire sulla Ricerca in questo ambito e sia di cambiare la percezione che si ha delle persone che usano queste tecnologie, cercando di farle percepire come “normali”.

Quindi, attualmente un cyborg è una persona che usa la tecnologia per ristabilire una funzionalità persa o parzialmente danneggiata.
C’è, però, la nuova generazione di cyborg, ovvero i cyborg ricreazionali, che vogliono diventare cyborg (ad esempio aspirando ad una vista o udito perfetti) solo perché possono e vogliono farlo.

I cyborg ricreativi
L’uomo nella foto qui sopra è il professor Steve Mann, conosciuto ai più come il primo cyborg al mondo (anche se, da quanto abbiamo detto prima, possiamo intuire che questa definizione non è proprio corretta).


Se non possiamo essere sicuri di definirlo “il primo cyborg al mondo”, possiamo però essere sicuri che è stato il primo ad avere una foto sul passaporto (nel 1995) in cui appare come un cyborg.
Steve Mann non è un novellino: ha iniziato a lavorare su dispositivi indossabili già quando frequentava il liceo, negli anni ’80. All’epoca già lavorava un “occhio digitale”.


L’IEEE, ovvero l’Institute of Electricaland Electronics Engineering ha definito Steve Mann come il padre della realtà aumentata e dei dispositivi elettronici indossabili.
Avete presente l’HDRI (High Dynamic Range Imaging)? l’ha inventata lui.

L' Eyetap digital eye glass. E’ un dispositivo in grado di catturare tre immagini simultaneamente a diverse esposizioni. Le immagini vengono combinate insieme in real time per produrre una visione del mondo che ha una ricchezza di dettagli irraggiungibili per l’occhio umano. Quindi, con questi occhiali, Steve Mann vede dettagli che normalmente nessuno vede.


Il passo successivo che sta portando avanti è di inserire questo sistema (con una telecamera) dentro un occhio prostetico.
E, a proposito di telecamere, qui si aprirebbe anche tutto il discorso delle registrazioni effettuate con questi dispostivi. Mann (e molti altri) dicono che queste registrazioni si possono paragonare alla memoria umana, mentre molti altri dicono che il paragone non sussiste.

L’uomo con più sensori addosso
Pensate sia troppo? Spingiamoci un po’ oltre: parliamo di Chris Dancy, considerato “l’uomo più connesso al mondo”.
Ha centinaia di sensori addosso, che acquisiscono dati in tempo reale sulle più svariate informazioni. Lui afferma di utilizzare questi dati al solo scopo di migliorare le sue abitudini. Pensate che ha perso anche 45kg.


E’ convinto che questo sia il futuro; afferma che bisogna ancora capire come utilizzare al meglio queste informazioni, ma è convinto che in un futuro non troppo lontano, le persone misureranno più dati possibili riguardo il loro stato di salute, o lo stato dell’ambiente in cui vivono.

Quindi, non solo i cyborg sono già tra noi, ma a quanto pare sarà sempre più possibile aumentare le proprie capacità fisiche e mentali, proprio come vuole il transumanesimo.

No comment yet.
Scooped by Mirko Compagno
Scoop.it!

Google-backed Magic Leap continues content partnerships w/ Sigur Rós ‘mixed reality’ app

Google-backed Magic Leap continues content partnerships w/ Sigur Rós ‘mixed reality’ app | Augmented World | Scoop.it

For the past several years, Magic Leap’s augmented reality device has been fervently anticipated due to the various claims made about the company’s technology. However, as 2017 ends, the startup has yet to unveil a product, though a new report today details one app that showcases Magic Leap’s capabilities.

Magic Leap — in partnership with band Sigur Rós — teased an augmented reality app today. This visual “audiovisual project” uses mixed reality (Magic Leap’s branding for AR) to visualize music.

Running at 8-10 minutes, the app is called Tónandi and Pitchfork has published several screenshots of the experience.

I see a group of little sprites floating around in front of me. The jellyfish-like creatures seem to match the waveform of the music I’m hearing through headphones. Encouraged to explore with my hands, I reach out, causing the waveforms to alter shape—both visually and in the audio playback, like a SoundCloud embed that’s somehow alive, three-dimensional, and responding to my movements. After initial sheepishness, I chase these non-existent tónandi like a clumsily psychotic bear in a very expensive gadget shop.

During the demo, the experience is able to adjust for the environment that the wearer is in:

The real-world demo space I’m in is decorated to resemble a living room, and the tónandi adjust to account for a table with oversized hardcover book on top of it.

Whatever I’m seeing, it isn’t just something pasted over my surroundings, but something that acknowledges those surroundings, and therefore seems more real.

Magic Leap’s strict non-disclosure agreement applies to the Pitchfork piece, however, we do get some hints. The piece — while taking about augmented reality headsets in general — notes narrow field of views, as well as the need for devices to connect to a battery pack for the foreseeable future.

The latter aspect lines up with a Business Insider report from February that notes how the current prototype features two packs for a battery and a processing unit that connect to the headset via a wire

In terms of launch, the report only notes how Tónandi might be available to download on Magic Leap “someday,” while the app “feels like it’s nearly ready for public consumption.”

The augmented reality startup has been working on this experience for four years. Besides massive funding from Google and venture capitalists, Magic Leap has been able to strike major partnerships with Lucasfilm and ILMxLAB in 2016 and with Peter Jackson’s visual effects company.

Today’s glimpse into Magic Leap seems to reaffirm how the company might be addressing AR’s content problem.

No comment yet.
Scooped by Mirko Compagno
Scoop.it!

Digital Energy Report: il futuro dell’energia è digitalene

“Il futuro dell’energia è digitale e l’energia è il prossimo settore in cui la disruption digitale colpirà. L’energia digitale è il fattore abilitante l’ecosistema dei prodotti e servizi smart che caratterizzano le reti, i sistemi energetici e produttivi”. Con queste parole Vittorio Chiesa, direttore dell’Energy&Strategy Group della School of Management del Politecnico di Milano, ha presentato il Digital Energy Report.

Ma cosa si intende per Digital Energy? Quali sono i benefici che derivano dalla su adozione?
Digital Energy Report ha come obiettivo quello di analizzare le conoscenze e le competenze per comprendere la reale portata della digitalizzazione nell’ambito energetico nei diversi ambiti: Smart Energy & Grid, Smart Manufacturing e Smart Building.

Si sente ormai spesso parlare di Digital Energy indicando la possibilità di utilizzare le tecnologie digitali per il controllo dei consumi di energia. Ma in realtà è molto di più. L’uso delle tecnologie digitali coinvolge tutta la filiera dell’energia, dalla produzione alla vendita.
Parlare di digital energy significa parlare di architetture complesse che oltre ai sistemi per il monitoraggio e l’azionamento dei diversi impianti energetici includono i sistemi di trasmissione dei dati e l’intelligenza necessaria alla loro elaborazione.

“Le sfide della digital energy sono molte – spiega Vittorio Chiesa -, sia sul piano tecnologico, sia soprattutto sul piano dei modelli di business vincenti”.

I tre paradigmi della Digital Energy:


Smart Energy & Grid


 – Rientrano in questo ambito le applicazioni implementabili sia nella generazione di fonti tradizionali, sia rinnovabili che consentono lo sviluppo di reti intelligenti in grado di sfruttare al meglio la produzione non programmata.
La scelta di soluzioni digitali è vincente, non soltanto per il gestore dell’impianto, ma anche per il sistema elettrico che guadagna in termini di affidabilità e flessibilità.

Smart Manufacturing


 – Rientrano le applicazioni IT dedicate al mondo industriale per una gestione ottimizzata dei processi produttivi. In questo caso le tecnologie digitali garantiscono una produzione automatizzata e interconnessa.
Il Piano Industria 4.0 ha lo scopo di stimolare la trasformazione digitale delle imprese manifatturiere, rendendole competitive in un mercato in continua evoluzione. Le tecnologie abilitanti spaziano dalla raccolta dati, alla robotica, all’automazione avanzata.

Smart Building


 – Rientrano le soluzioni digitali per la gestione automatica di impianti, come quelli per l’illuminazione e la climatizzazione, con particolare attenzione al monitoraggio in ottica di risparmio energetico e sicurezza delle persone. Il mondo digitale incontra quello dell’efficienza energetica: monitoraggio, controllo e regolazione che determinano il funzionamento ottimale degli impianti. Il flusso di energia, inoltre, genera un flusso di dati che apre a servizio come la manutenzione predittiva.
Le soluzioni digitali per lo Smart Building rappresentano un primo e importante passo di efficientamento di un parco edifici che come sappiamo è decisamente vecchio e con impianti obsoleti.

Le tecnologie per la Digital Energy
Gli apparati fisici che abilitano la trasformazione digitale sono prodotti interconnessi, intelligenti che offrono nuove funzionalità. Comunemente vengono chiamati IoT, Internet of Things. La vera innovazione non consiste nella connettività dell’oggetto, ma nella possibilità di interagire con altri oggetti o con l’uomo.

Le capacità dei prodotti interconnessi spaziano dal più semplice monitoraggio delle condizioni di funzionamento, con la segnalazione di eventuali anomalie, al controllo, dall’ottimizzazione, fino allo sviluppo di una certa autonomia del prodotto.
A fine 2015 sono stati stimati circa 18 miliardi di oggetti connessi e intelligenti e nel 2010 saranno 50 miliardi.

No comment yet.
Scooped by Mirko Compagno
Scoop.it!

11 New Jobs in the Future of Healthcare and Medicine – Part II

11 New Jobs in the Future of Healthcare and Medicine – Part II | Augmented World | Scoop.it

As I am certain that the huge waves of technological change transform the medical professional palette; based on the current and prospective trends in digital health technologies I envisioned what potential new professions could appear in our lives. Don’t miss the first part of the list!

If you have an idea about another new job of the future, please let me know and I will keep on improving the list.

1) No one knows what disease are you suffering from? Ask a healthcare navigator!

Do you remember what the biggest challenge for Hugh Laurie as Doctor House was in the famous series for solving medical mysteries? Yes, you are right, to actually talk to patients and be in close vicinity to people. He would be very pleased to know that in the future, the work of a specialized diagnostician would not involve direct contact with patients if he did not want to.

He could work in a team with actual caregivers, who can provide patients with the adequate amount of attention and care, and with AI algorithms, which would scan through billions of documents within minutes to find the one hidden solution for a very rare medical problem. His job would be to piece together the relevant information and forward it to caregivers with the necessary therapeutic recommendations.

2) Healing will be joy and fun with gamification specialists

Somewhere in the 2040s: Peter and his family was celebrating his wife’s 50th birthday, when he suddenly felt a twitch in his head and fell unconscious. The ambulance came within minutes, and the medical drones helped transport him very quickly to get adequate care. It turned out he had a stroke and his healing process will take several months. After telling him the diagnosis, his physician consulted a gamification specialist about the next steps.

He wanted him to design a treatment with the help of VR/AR, in which Peter could learn to use his left hand again through a strategic computer game. By playing it, he has to climb through walls and collect coins to be able to reach the innermost chamber of a medieval castle. In the next days, the gamification specialist worked on streamlining an existing game to Peter’s needs. The game got ready for the day, when the physician told Peter to start the rehabilitation process.

There are millions of ways, in which gamification could make healthcare more fun and help people at the same time. It already started. Just think about Plant Nanny, the app which helps you drink the right amount of water a day by allowing you to bring up a little plant! Or remember all the fitness wearable challenges out there. Such as the ones offered by Fitbit, which urge you to stay fit by competing with your peers. But the future holds more complex issues in gamification. Coupled with the possibilities in virtual reality or augmented reality, gamification specialists could plan whole personalized games to follow their treatment plan – such as the above.

3) Augmented/virtual reality operation planners for the success of every surgical intervention

Before complex operations, such as implantations or tumor removals, surgeons have to prepare extensively. 3D-printed organs or AR/VR will be of huge assistance in the future. A promising start-up, Medsights Tech already developed a software to test the feasibility of using augmented reality to create accurate 3-dimensional reconstructions of tumours. The complex image reconstructing technology basically empowers surgeons with x-ray views – without any radiation exposure, in real time.

Within 20-30 years, AR/VR operation planners will help surgeons in the preparation for very complex surgical interventions. While the medical professional explains what kind of operation will unfold, the planner visualizes the organs and the whole process through AR/VR. Sounds like a wonderful job for medical geeks, doesn’t it?

4) Reducing suffering and alleviating pain through professionally designed VR therapies

Brennan Spiegel and his team at the Cedars-Sinai hospital in Los Angeles introduced VR worlds to their patients to help them release stress and reduce pain. With the special goggles, they could escape the four walls of the hospital. They are able to visit amazing landscapes in Iceland, participate in the work of an art studio or swim together with whales in the deep blue ocean. A similar project called Farmoo helps teen cancer patients get distracted during chemotherapy treatments.

In the future, VR therapy designers could use the immense potential in VR for alleviating pain and reducing suffering. Especially for patients, who have to combat mental illnesses such as PTSD, phobias or other psychological disorders. VR therapy designers will be experts in psychology as well as in VR design. Their aim will be to create the adequate, personalized virtual environments and programs for patients to get through the worst periods of their lives with the most help possible.

5) With the rise of nanosolutions, nanomedical engineers will be in huge demand

Somewhere in the 2030s: Lora had been feeling dizzy for a while. She could not explain her fever at nights, why she had been losing weight or why she was sweating a lot at night. Her smartphone got an appointment at her GP’s office and after a couple of exams it turned out she had lymphoma. She was shocked, but her doctor reassured her that in such an early stage the disease could be treated.

Afterwards, the physician consulted with a nanomedicine engineer who offered a great solution. He worked out a personalized therapy consisting of chemotherapy molecules applied to nanocages. Lora had to go to her doctor for an injection treatment, and these nanocages were injected into her body. Then, the tiny chemotherapy molecules exerted their effect only if they “bumped” into cancerous cells; and the lymphoma was cured way more efficiently and with much less pain and inconvenience.

The rise of nanotechnology is just around the corner, so highly targeted oncology treatments and medical professionals, who are able to substantially design and plan such personalized therapies, will be in demand very soon.

6) Do you have trouble with sending data from your home sensors to your smartphone? Ask an internet of healthy things connector!

Somewhere in the 2040s: similarly to every other family in the suburban Quebec neighborhood, Eva and her husband had a network of smart sensors at home. For example, they used CubeSensors – small, very simply designed cubes all over their house. The smart cubicle measured air quality, temperature, humidity, noise, light, air pressure. Based on their personal information it adjusted the relevant factors for optimizing their well-being at home. Similarly, Eva and her husband had a swarm of wearables for sleep tracking, fitness activities and measuring vital health parameters. So when she suddenly felt ill, she wanted to send all the supporting data to the AI medical assistant to help the smart algorithm analyse the data in minutes and figure out the diagnosis without bothering an actual doctor.

But she was simply unable to put the data together due to compatibility issues. So she called an internet of healthy things connector, a technologist with a sense of medicine. He was able to fix the compatibility problem. Moreover, he also helped in designing the appropriate digital health solutions between smart sensors used at home and everyday healthcare. In the future, a swarm of such technicians will populate the field of digital healthcare.

7) Do you have trouble in getting from A to B in the healthcare jungle? Hire a patient assistant!

Somewhere in the 2030s: Emily was born as a healthy, curious little baby girl. The problems started when she went to primary school. Her mother realized that Emily acted hyperactively, had a very hard time focusing on tasks, had a supersensitive self and suffered a lot from her environment. But what to do in this situation? She didn’t know any medical professional, she had no experience in the field of psychology or psychiatry. And as she was searching in her laptop about potential medical solutions or therapies to ask about, a Google ad popped up on her screen. Hire a patient assistant!

She called the indicated number and a friendly female voice replied. They arranged a meeting, talked about the situation and the patient assistant crafted various possible patient routes to follow. The nice lady had extensive medical background, a thorough knowledge about the healthcare system – together with how to solve insurance troubles -, as well as an extensive network. Emily’s mother was relieved that her little girl got into the right hands. I am wondering why there is no such service today. Where are the patient assistants? I hope they will appear as soon as possible in the healthcare system.

8) End-of-life therapists will prepare patients for death

In his thought-provoking critique of society, God Bless You, Mr. Rosewater, Kurt Vonnegut explains that in the future, as all serious diseases had been conquered, death became voluntary and the government, to encourage volunteers for death, set up a purple-roofed Ethical Suicide Parlor at every major intersection. While it is obviously a satire, it taps into the very difficult question how we will handle death in the future. And how our attitude towards death will change gradually.

People will live a longer, healthier life and although it is currently unimaginable, it might become a reality that they will actually be able to decide about their own death. As it is such a huge psychological burden, which we are not able to process, we will need therapists specialized in death. These psychologists could help prepare for death; help those who decide when they want to end their life and also those who decide they choose to live on synthetically by e.g. uploading their consciousness to a computer.

9) Does your cyborg neighbor complain constantly about his life? Send him to a cyborg therapist!

Neil Harbisson lives with a specialized electronic eye, rendering perceived colours as sounds on the musical scale. Dr. Kevin Warwick installed a microchip in his arm, which lets him operate heaters, computers and lights remotely. Jesse Sullivan became a cyborg when he got equipped with a bionic limb, which was connected through nerve-muscle grafting. Cyborgs are already living with us, and there is going to be more and more people with implanted sensors, prosthetics, neuroprosthetics or bioprinted organs.

I know that it is already mind-blowing for some people to read about cyborgs living among us. Then imagine how difficult it is going to be to process the whole phenomenon in the future. That’s the reason why we will need professionals: cyborg therapists who will offer help for people living as cyborgs to integrate into society successfully.

10) Health data analysts wanted for making sense of big data!

With the evolution of digital capacity, more and more data is produced and stored in the digital space. The amount of available digital data is growing by a mind-blowing speed, doubling every two year. In 2013, it encompassed 4.4 zettabytes, however by 2020 the digital universe will reach 44 zettabytes, or 44 trillion gigabytes (!). Besides, with the availability of cheap genome sequencing, gazillion of wearables, healthcare trackers and home sensors, as well as other methods for obtaining data about our health, huge amounts of medical data will be created.

In the future, health data analysts will be in huge demand to constantly analyse big health data, bring them to the same platform, convert them and interpret them adequately. Even dealing with data when the patient brings their sensors’ measurements to the GP’s practice will involve the work of data analysists.

11) People with paralysis will get help from brain-computer interface designers!

Somewhere in the 2050s: Edward had a serious car accident, when his driverless car could not brake in time in the ice storm. It was one of the biggest accidents in years in the UK. He survived it, but he suffered a spinal cord injury and could not move his legs or hands anymore. However, with the help of brain-computer interfaces (BCIs) connected to various devices, he is able to carry out specific actions. BCIs made him able to still have some control over his life and his environment after he had lost his ability to move around.

BCIs acquire brain signals, analyse them, and translate them into commands that are relayed to output devices that carry out desired actions. Their main goal is to replace or restore useful function to people disabled by neuromuscular disorders such as amyotrophic lateral sclerosis, cerebral palsy, stroke, or spinal cord injury. In the future, the design of such delicate interfaces will require specialists passionately working on BCIs during their whole workday.

 Did I blow your mind with my predictions? I hope you have also seen the first part of our article series, where I described the future tasks of organ designers, robot companion engineers or telesurgeons. Are you skeptical about the current healthcare trends and where they are leading us? Don’t be. Rather prepare for the huge changes in medical health by subscribing to my newsletter and following the trends here.

No comment yet.
Scooped by Mirko Compagno
Scoop.it!

Realtà Aumentata nei Beni Culturali

Realtà Aumentata nei Beni Culturali | Augmented World | Scoop.it
Sentiamo spesso parlare di “Realtà Virtuale” e ”Realtà Aumentata”, siamo abituati a vederne le immense potenzialità applicate nei musei di tutto mondo dove il Bene Culturale viene ricostruito come era ai tempi in cui veniva utilizzato e può essere visitato percorrendolo e «interagendo virtualmente con esso, come se una macchina del tempo ci avesse proiettato in un passato assai remoto».

Bisogna sapere che questo “viaggio”, necessita di dispositivi che consentono di guardare con un’altra visione «per vedere quello che normalmente non si vede, per sentire suoni, odori, emozioni, sensazioni tattili difficilmente avvertibili». Si tratta, quindi, di proiettarsi in un’altra realtà o in una “Realtà Aumentata” che potrebbe rappresentare una grande metafora spirituale, la possibilità, cioè, di «acuire la percezione del terzo Occhio che tutto vede, sente e immagina, che è in grado di leggere ogni elemento della realtà tangibile e intangibile, scoprendo le infinite capacità interiori di tutti gli individui». Mi piace pensare che «i dispositivi di ‘Realtà Virtuale’ e ‘Realtà Aumentata’ non fanno altro che sfruttare dei meccanismi del cervello e aiutano l’uomo ad immaginare quello che spesso non riesce a vedere, a guardare quello che altri percepiscono, o a vedere realtà di epoche diverse che altri hanno vissuto».

Bisogna sapere che i dispositivi necessari per effettuare questo viaggio possono essere un «visore, ossia dei semplici occhiali o una sorta di casco che consentono di far scomparire il mondo reale dell’utilizzatore per proiettarlo, attraverso degli schermi speciali, in un ambiente del tutto virtuale o in uno reale dove siano stati introdotti dei nuovi elementi per accrescerne alcune caratteristiche», un auricolare per sentire suoni, rumori e musiche, un paio di guanti, del tipo wired gloves, con i quali effettuare movimenti e digitare comandi sulle tastiere virtuali, una tuta speciale da indossare, la cyber-tuta, per simulare il senso del tatto.

Quando abbiamo a che fare con occhiali, tute, auricolari e guanti si fa riferimento ad una “Realtà Virtuale Immersiva” (o RVI), se ci troviamo, invece, davanti al monitor di un Computer siamo davanti a una Realtà Virtuale non Immersiva, dove l’utilizzatore fa ingresso nel mondo tridimensionale attraverso appositi dispositivi con cui controlla quanto visualizzato sullo schermo. È chiaro che nel primo caso l’utente avrà un maggior grado di coinvolgimento essendo partecipe di quello che accade quasi fisicamente. Che differenza c’è, quindi, tra la “Realtà Virtuale” e la “Realtà Aumentata”? Nel primo caso viene simulata una realtà effettiva, si può navigare e muoversi in tempo reale in ambientazioni fotorealistiche e interagire con gli oggetti in esse presenti. Nel secondo caso (Augmented Reality), avviene una specie di «mescolanza tra la percezione della realtà circostante e le immagini che vengono generate da un Personal Computer, allo scopo di fornire all’utente informazioni aggiuntive mentre si muove e interagisce con l’ambiente effettivo che lo circonda».

Fatte queste premesse fondamentali tratte dal libro scritto a quattro mani con mio fratello Maurizio, Ingegneria Elevatoᵑ - Ingegneria del Futuro o Futuro dell’Ingegneria?, facciamo ora riferimento alla “Realtà Aumentata” che fornisce la possibilità di sovrapporre contenuti digitali – suoni, grafica, video o altre interfacce – al mondo reale. Restringendo il campo al Turismo e ai Patrimoni Culturali abbiamo intervistato il Dottor Mirco Compagno, Augmented Reality Architect and UX Designer di THE ROUND società operante nel settore delle nuove tecnologie della comunicazione e dell’informazione".

Nel 2013, quando Google ha avviato il programma di ricerca per creare un paio di occhiali dotati di “Realtà Aumentata”, i Google Glass, le aspettative di successo erano enormi, ma il progetto finì per fallire. Il mercato attuale è più maturo di allora?

Oggi il mercato è attivo nei settori più disparati, dai giochi al cinema, dalla musica ai Beni Culturali e si sta aprendo anche al campo Turistico. Con l’evoluzione esponenziale delle tecnologie, la “Realtà Aumentata” sta prendendo sempre più piede e gli esperti sono convinti che proprio il 2017 sarà l’anno della svolta, di diffusione più capillare nei mercati, tra i quali quello italiano. Essa permette di aggiungere, infatti, informazioni e contenuti digitali al contesto reale che ci circonda e che stiamo osservando in un dato momento. Questo fa sì che l’esperienza vissuta venga arricchita di informazioni e di contenuti, anche visivi, che ne aumentano la percezione sia intellettiva che emotiva. In pratica, è possibile fruire di una esperienza ‘immersiva’ senza tuttavia perdere il contatto con l’ambiente reale che ci circonda aggiungendo informazioni, suscitando emozioni, sollecitando la nostra memoria e l’apprendimento senza tuttavia condurci in un mondo virtuale – prerogativa questa della “Realtà Virtuale”.

Quale ausilio può fornire, quindi, questa tecnologia al Turismo e alla conoscenza dei Patrimoni Culturali?

È noto che le migliori proposte turistiche in grado di aumentare la permanenza del turista in un dato luogo, sono quelle che consentono agli utenti di entrare in stretto contatto con la realtà territoriale che visitano, in tutti i diversi aspetti della cultura, delle arti, delle tradizioni, anche eno-gastronomiche, del paesaggio, del folclore. Il Turismo si trasforma così da mera visita ad esperienza ‘immersiva’ nel contesto locale e territoriale di permanenza. Tutto questo richiede ovviamente una strategia atta a potenziare tutti i servizi turistici, dall’accoglienza all’accessibilità e raggiungibilità dei luoghi. E necessita anche di azioni e servizi che incrementino la sostenibilità, con l’obiettivo di incentivare le presenze nei diversi status sociali e al contempo ridurre i costi degli esercenti dei servizi al Turismo. In tali scenari le applicazioni della “Realtà Aumentata” possono giocare un ruolo fondamentale, di grande aiuto nella promozione, organizzazione, gestione, incentivazione del Turismo e di fruizione.

Può farci degli esempi di applicazione di questa tecnologia al settore turistico?

Prendiamo ad esempio la fruizione di opere d’arte. Grazie alla “Realtà Aumentata” è possibile incrementare il contenuto informativo per i visitatori che potranno accedere ai diversi aspetti che la caratterizzano: artistici, storici, ambientali, valoriali. Tutto ciò può essere fruito con semplicità, grazie alle più diffuse tecnologie, senza togliere valore al prezioso lavoro delle guide turistiche. Sarà possibile, inoltre, operare una ricostruzione del contesto storico e ambientale di opere antiche o addirittura preistoriche, ben più efficace rispetto alla semplice immaginazione, dettata dalle spiegazioni di una guida. È ovvio che questo consente anche di colmare e superare le difficoltà linguistiche di gruppi eterogenei di turisti provenienti da nazioni diverse. In tal caso disporre di ‘App’ tradotte in più lingue selezionabili dal visitatore, consente alle guide di ottimizzare il proprio lavoro e ai fruitori di poter accedere con maggiore dinamismo ai siti, senza dovere sottostare a rigide schedulazioni di orario. Sarà, infine, possibile migliorare la segnalazione dei percorsi di visita e/o degli oggetti in esposizione, a beneficio della comprensione del “cosa si sta guardando”.

In un futuro non troppo lontano, quindi, questa tecnologia sarà in grado di effettuare un percorso di visita con la competenza di una guida turistica?

Mi preme far rilevare che la disponibilità di applicazioni in “Realtà Aumentata” per la fruizione di Beni Culturali non è intesa come sostitutiva o inibitoria del lavoro delle guide turistiche, ma come un prezioso strumento di affiancamento al loro lavoro o, nei casi in cui per qualsiasi motivo non sia possibile disporre di un operatore-guida, come un potenziamento dell’offerta turistica. Tali applicazioni possono intervenire efficacemente in tutti i diversi processi di governo, promozione, gestione e di controllo inerenti al settore del Turismo e dei Patrimoni Culturali.

Possiamo fare qualche esempio?

Le applicazioni in “Realtà Aumentata” possono essere utilizzate per la promozione e il marketing: ci sono esempi di “chioschi” o “totem” in “Realtà Aumentata” da collocare in location espositive o in punti strategici per l’attrazione e la comunicazione ai turisti; ma si possono anche creare cataloghi, pubblicazioni e cartoline in “Realtà Aumentata”. Un’altra interessante applicazione è possibile nell’ambito della mobilità e dell’accessibilità come utile ausilio per governare e calibrare i flussi, orientare nei percorsi e nei mezzi e servizi disponibili. Non dimentichiamo che spesso i capitali a disposizione sono limitati, pertanto applicazioni in “Realtà Aumentata” possono essere utilizzate per la sostenibilità (economica) segnalando le diverse offerte di servizi al turista, sul territorio, differenziate per prezzo e tipologia di servizi.

A questo possiamo aggiungere azioni di supporto ai processi di programmazione, governo e controllo che, grazie all’integrazione e interazione della “Realtà Aumentata” con altri strumenti tecnologici, saranno in grado di operare un vero cambiamento al concepimento ed attuazione dei piani strategici per il turismo. Voglio far rilevare, ad ogni modo, che è opportuno adottare metodi e strumenti per la fruizione delle applicazioni in “Realtà Aumentata” che tendano ad essere di facile uso e comprensione, che siano accessibili a tutti (sia dal punto di vista strumentale che economico), che forniscano attenzione alla qualità ed affidabilità delle informazioni rese. Queste sfide sono già in atto e altri stimoli ci aspettano nel prossimo futuro. Agli uomini sono sempre piaciute le sfide, l’evoluzione è qualcosa di inarrestabile.

Eppure le verità fondamentali sono sempre state il nocciolo della saggezza di ogni popolo, ogni evoluzione le contiene e le esalta, dopo ulteriori conoscenze si può guardare ad esse con rinnovata curiosità. Credo che anche le tecnologie digitali più spinte sfruttino sempre l’osservazione di ciò che avviene nel cervello dell’Essere Umano. L’Uomo è il bio-computer più perfetto che esista, in grado di entrare in connessione Wireless con i suoi simili, con il mondo animale e vegetale e perfino con le cose inanimate. La sua immaginazione è lo strumento che gli consente di creare nuove idee, di elaborare nuove forme, di rinnovare ogni oggetto. E la “Realtà Aumentata” è quello strumento che costruisce nuove realtà possibili a partire da quella che conosciamo… o che crediamo di conoscere…
No comment yet.
Scooped by Mirko Compagno
Scoop.it!

Addio contadino, i campi li coltiveranno i robot

Addio contadino, i campi li coltiveranno i robot | Augmented World | Scoop.it

Nelle campagne inglesi un campo è stato coltivato, dalla semina al raccolto, solo con mezzi autonomi, droni e robot. Il preludio all'estinzione dei contadini?

Con la guida autonoma e la robotizzazione saranno molti i lavori che spariranno o che, comunque, verranno ridimensionati. Tra questi c'è anche quello dell'agricoltore. Non ne siete convinti? Posate la zappa e leggete. Un gruppo di ricercatori di Shropshire, in Inghilterra, è riuscito a seminare e raccogliere un campo di orzo usando soltanto robot. Nessun umano, insomma, ha messo piede nel campo.

Sebbene oggi siano molti i passaggi automatizzati dell'agricoltura, di rado lo è l'intero processo, dalla semina alla cura per passare al monitoraggio e infine alla raccolta. Il progetto "Hands-Free Hectare" ha preso il via lo scorso ottobre grazie a un team dell'università Harper Adams e ha ricevuto un finanziamento dal governo britannico di 200.000 sterline.

Gli studiosi hanno modificato un trattore e una mietitrebbiatrice dotandoli di telecamere, laser e sistemi GPS. Droni e un robot "scout", capaci di prelevare campioni di terreno, hanno aiutato i ricercatori a monitorare il campo da lontano (su Youtube potete vedere diversi video dei macchinari all'opera).

Kit Franklin, a capo del progetto e ingegnere agrario, ha ammesso che si è trattato dell'ettaro di orzo più costoso di sempre, ma anche che, battute a parte, è un assaggio di quello che verrà.

"L'automazione è il futuro dell'agricoltura, ma siamo in una fase in cui le macchine agricole hanno dimensioni decisamente insostenibili", ha detto Franklin al Times. Secondo lui l'agricoltura si appoggerà a veicoli più piccoli e intelligenti, che potranno lavorare con maggiore precisione senza danneggiare il suolo e di conseguenza l'andamento delle successive colture.

Anche se il progetto è andato a buon fine, non sono mancate le difficoltà. Il trattore non è riuscito a mantenere una linea rettilinea nel campo, quindi la semina è avvenuta in modo poco uniforme. Inoltre il team ha faticato a modificare rapidamente il trattore per l'irrorazione. Kieran Walsh, agronomo, ha anche espresso difficoltà nel controllare un campo tramite un video.

Insomma, forse il "contadino" non sparirà del tutto, ma dovrà evolversi: dovrà saper controllare i robot e capire se funzionano in modo corretto. Per diverso tempo le "macchine" non saranno in grado di sostituire quella capacità unica di capire e conoscere la terra che contraddistingue ogni agricoltore, ma anche quel traguardo verrà raggiunto prima o poi.

L'intelligenza artificiale sarà la chiave. Spesso ne scriviamo parlando automobili, ma l'IA troverà spazio anche in agricoltura, tanto che nelle scorse ore la John Deere ha acquistato per 305 milioni di dollari Blue River Technology, startup nata nel 2011 a Sunnyvale (California) specializzata nell'agricoltura di precisione.

Blue River Technology ha creato, tra gli altri, un sistema che si avvale del machine learning e della computer vision per ottimizzare l'uso dei pesticidi, che potranno così essere irrorati in modo più mirato. John Deere ha tutta l'intenzione di integrare questa e altre soluzioni sulle proprie macchine.

No comment yet.
Scooped by Mirko Compagno
Scoop.it!

In Cina i negozi non hanno né personale né soldi: si fa tutto con lo smartphone

In Cina i negozi non hanno né personale né soldi: si fa tutto con lo smartphone | Augmented World | Scoop.it

Ormai sono sempre di più gli esercizi commerciali altamente tecnologici e completamente automatizzati. E il giro d’affari in Cina è di 3mila miliardi di dollari.

Che la tecnologia continui a fare passi da gigante e ci faciliti sempre di più la nostra quotidianità è ormai sotto gli occhi di tutti, ma cosa pensereste se vi dicessimo che in Cina sono sempre di più i negozi dove non c’è personale né soldi e si fa tutto grazie allo smartphone?

No, non è un progetto che deve ancora prendere piede, è la realtà quotidiana di esercizi commerciali altamente tecnologici e completamente automatizzati che si trovano sempre più numerosi in città come Pechino, Shanghai e Hangzhou. Lo smartphone funge sia da chiave di accesso al negozio che da “portafoglio”. 


Grazie infatti al sistema di pagamento digitale di WeChat, app gemella di WhatsApp molto diffusa in Cina, e ad Alipay, la piattaforma di pagamenti online di Alibaba, è possibile acquistare praticamente di tutto grazie ad un click. E lo scorso anno, stando ai numero della Better Than Cash Alliance delle Nazioni Unite, il giro d’affari via mobile in Cina è stato pari a 3mila miliardi di dollari, 50 volte maggiore rispetto a quello negli Stati Uniti.

E così in Cina sono arrivati i Bingobox, una catena di negozi alimentari che vende birre, bevande, patatine, insalate, snack, noodles, etc. e permette di pagare con WeChat. Per ora ce ne sono 12 in tutto il Paese e assomigliano ai nostri piccoli alimentari, con la differenza che non esiste personale e che sono ad alto tasso tecnologico. Per accedere basta scansionare con il proprio telefono il QR Code all’ingresso e per pagare sono sufficienti i sistemi di pagamento online appena citati.

E per gli eventuali furti? Niente paura, i sensori del negozio sono in grado di prevenire i taccheggi e di accorgersi immediatamente se qualcosa è stato sottratto o non pagato, e la mancanza viene subito attribuita al cliente malandrino.

Alibaba, colosso cinese della vendita online, ha inoltre lanciato il Tao Café, qualcosa di simile ad un autogrill automatizzato, che si trova nella città di Hangzhou, nella parte orientale del Paese. Per accedere e acquistare basta avere l’app di ecommerce Taobao e il gioco è fatto.

Questi negozi non sono ancora “perfetti”: nelle scorse settimane alcuni store sono stati chiusi per via delle alte temperature che hanno messo a dura prova il normale funzionamento delle tecnologie a disposizione.

E mentre Amazon testa il suo Amazon Go, il “supermarket senza cassa” e Zara sta compiendo importanti passi per digitalizzare la “user experience” nei suoi negozi la domanda è legittima: è questo il futuro dello shopping al dettaglio? Con lo sviluppo sempre più veloce dell’intelligenza artificiale siamo pronti a scommettere che ne vedremo delle belle.

No comment yet.