Augmented World
11.3K views | +0 today
Follow
Augmented World
News on Augmented Reality, Virtual Reality, Mixed Reality, UX/UI Designer, Internet of Things, Artificial intelligence, Quantum Computing, continually updated from thousands of sources around the net.
Curated by Mirko Compagno
Your new post is loading...
Your new post is loading...
Scooped by Mirko Compagno
Scoop.it!

Stable Diffusion: Una chiave per svelare i misteri della mente? –

Stable Diffusion: Una chiave per svelare i misteri della mente? – | Augmented World | Scoop.it
Una ricerca all'avanguardia suggerisce che è possibile ricostruire immagini ad alta risoluzione dall'attività cerebrale umana, aprendo la strada a una tecnologia rivoluzionaria che un giorno potrebbe leggere la mente. Wim Wenders aveva già immaginato qualcosa del genere nel 1991 nel film "Fino alla fine del mondo". In questo film lo scienziato Farber crea un avveniristico…
No comment yet.
Scooped by Mirko Compagno
Scoop.it!

BIM & Metaverso

BIM & Metaverso | Augmented World | Scoop.it
Il Metaverso è uno spazio virtuale in cui le persone possono interagire, lavorare, giocare e persino acquistare terreni o opere d’arte virtuali. È un’evoluzione degli ecosistemi Internet e digitali, resa possibile dai dati, dall’XR (realtà estesa), dalla blockchain, dall’AI.
No comment yet.
Scooped by Mirko Compagno
Scoop.it!

Google Sidelines Engineer Who Claims Its A.I. Is Sentient - The New York Times

Google Sidelines Engineer Who Claims Its A.I. Is Sentient - The New York Times | Augmented World | Scoop.it
Blake Lemoine, the engineer, says that Google’s language model has a soul. The company disagrees.
No comment yet.
Scooped by Mirko Compagno
Scoop.it!

Death Mask, l'intelligenza artificiale che ti dice quanto vivrai

Death Mask, l'intelligenza artificiale che ti dice quanto vivrai | Augmented World | Scoop.it

L’esperimento condotto in realtà aumentata sfrutta i database online per il riconoscimento facciale e mostra il possibile futuro del marketing


I software di riconoscimento facciale sono sempre più raffinati; alcuni individuano, con buona approssimazione, il sesso e l’età delle persone inquadrate. 


Tra gli obiettivi delle software house c’è quello di fornire strumenti in grado di soddisfare la richiesta di sempre maggiore accuratezza dei loro clienti (individuare con precisione l’età di un utente online permette a un’azienda di migliorare l’offerta di prodotti e la conseguente conversione in acquisto).

Death Mask prova a spostare un po’ più in alto l’asticella tecnologica prevedendo, con un esperimento in realtà aumentata, l’aspettativa di vita delle persone. 


Attraverso il machine learning e l’accesso a database pubblici, Death Mask vuole dirigere l’attenzione degli utenti stessi verso strumenti e tecniche di mercato sempre più raffinati e pervasivi.

No comment yet.
Scooped by Mirko Compagno
Scoop.it!

Artificial Intelligence and NASA Data Used to Discover Eighth Planet Circling Distant Star

Our solar system now is tied for most number of planets around a single star, with the recent discovery of an eighth planet circling Kepler-90, a Sun-like star 2,545 light years from Earth. 


The planet was discovered in data from NASA’s Kepler space telescope. The newly-discovered Kepler-90i -- a sizzling hot, rocky planet that orbits its star once every 14.4 days -- was found by researchers from Google and The University of Texas at Austin using machine learning. 


Machine learning is an approach to artificial intelligence in which computers “learn.” In this case, computers learned to identify planets by finding in Kepler data instances where the telescope recorded signals from planets beyond our solar system, known as exoplanets.


“Just as we expected, there are exciting discoveries lurking in our archived Kepler data, waiting for the right tool or technology to unearth them,” said Paul Hertz, director of NASA’s Astrophysics Division in Washington. 


“This finding shows that our data will be a treasure trove available to innovative researchers for years to come.” The discovery came about after researchers Christopher Shallue and Andrew Vanderburg trained a computer to learn how to identify exoplanets in the light readings recorded by Kepler – the minuscule change in brightness captured when a planet passed in front of, or transited, a star. 


Inspired by the way neurons connect in the human brain, this artificial “neural network” sifted through Kepler data and found weak transit signals from a previously-missed eighth planet orbiting Kepler-90, in the constellation Draco. While machine learning has previously been used in searches of the Kepler database, this research demonstrates that neural networks are a promising tool in finding some of the weakest signals of distant worlds. 


 Other planetary systems probably hold more promise for life than Kepler-90. About 30 percent larger than Earth, Kepler-90i is so close to its star that its average surface temperature is believed to exceed 800 degrees Fahrenheit, on par with Mercury. 


Its outermost planet, Kepler-90h, orbits at a similar distance to its star as Earth does to the Sun. “The Kepler-90 star system is like a mini version of our solar system. You have small planets inside and big planets outside, but everything is scrunched in much closer,” said Vanderburg, a NASA Sagan Postdoctoral Fellow and astronomer at the University of Texas at Austin. Shallue, a senior software engineer with Google’s research team Google AI, came up with the idea to apply a neural network to Kepler data. 


He became interested in exoplanet discovery after learning that astronomy, like other branches of science, is rapidly being inundated with data as the technology for data collection from space advances. “In my spare time, I started googling for ‘finding exoplanets with large data sets’ and found out about the Kepler mission and the huge data set available,” said Shallue. 


"Machine learning really shines in situations where there is so much data that humans can't search it for themselves.” Kepler’s four-year dataset consists of 35,000 possible planetary signals. Automated tests, and sometimes human eyes, are used to verify the most promising signals in the data. However, the weakest signals often are missed using these methods. Shallue and Vanderburg thought there could be more interesting exoplanet discoveries faintly lurking in the data. 


 First, they trained the neural network to identify transiting exoplanets using a set of 15,000 previously-vetted signals from the Kepler exoplanet catalogue. In the test set, the neural network correctly identified true planets and false positives 96 percent of the time. Then, with the neural network having "learned" to detect the pattern of a transiting exoplanet, the researchers directed their model to search for weaker signals in 670 star systems that already had multiple known planets. Their assumption was that multiple-planet systems would be the best places to look for more exoplanets. 


We got lots of false positives of planets, but also potentially more real planets,” said Vanderburg. “It’s like sifting through rocks to find jewels. If you have a finer sieve then you will catch more rocks but you might catch more jewels, as well.” Kepler-90i wasn’t the only jewel this neural network sifted out. In the Kepler-80 system, they found a sixth planet. This one, the Earth-sized Kepler-80g, and four of its neighboring planets form what is called a resonant chain – where planets are locked by their mutual gravity in a rhythmic orbital dance. 


The result is an extremely stable system, similar to the seven planets in the TRAPPIST-1 system. Their research paper reporting these findings has been accepted for publication in The Astronomical Journal. Shallue and Vanderburg plan to apply their neural network to Kepler’s full set of more than 150,000 stars. Kepler has produced an unprecedented data set for exoplanet hunting. 


After gazing at one patch of space for four years, the spacecraft now is operating on an extended mission and switches its field of view every 80 days. “These results demonstrate the enduring value of Kepler’s mission,” said Jessie Dotson, Kepler’s project scientist at NASA’s Ames Research Center in California’s Silicon Valley. 


“New ways of looking at the data – such as this early-stage research to apply machine learning algorithms – promises to continue to yield significant advances in our understanding of planetary systems around other stars. I’m sure there are more firsts in the data waiting for people to find them.” 


Ames manages the Kepler and K2 missions for NASA’s Science Mission Directorate in Washington. NASA's Jet Propulsion Laboratory in Pasadena, California, managed Kepler mission development. Ball Aerospace & Technologies Corporation operates the flight system with support from the Laboratory for Atmospheric and Space Physics at the University of Colorado in Boulder. This work was performed through the Carl Sagan Postdoctoral Fellowship Program executed by the NASA Exoplanet Science Institute.

No comment yet.
Scooped by Mirko Compagno
Scoop.it!

Addio contadino, i campi li coltiveranno i robot

Addio contadino, i campi li coltiveranno i robot | Augmented World | Scoop.it

Nelle campagne inglesi un campo è stato coltivato, dalla semina al raccolto, solo con mezzi autonomi, droni e robot. Il preludio all'estinzione dei contadini?

Con la guida autonoma e la robotizzazione saranno molti i lavori che spariranno o che, comunque, verranno ridimensionati. Tra questi c'è anche quello dell'agricoltore. Non ne siete convinti? Posate la zappa e leggete. Un gruppo di ricercatori di Shropshire, in Inghilterra, è riuscito a seminare e raccogliere un campo di orzo usando soltanto robot. Nessun umano, insomma, ha messo piede nel campo.

Sebbene oggi siano molti i passaggi automatizzati dell'agricoltura, di rado lo è l'intero processo, dalla semina alla cura per passare al monitoraggio e infine alla raccolta. Il progetto "Hands-Free Hectare" ha preso il via lo scorso ottobre grazie a un team dell'università Harper Adams e ha ricevuto un finanziamento dal governo britannico di 200.000 sterline.

Gli studiosi hanno modificato un trattore e una mietitrebbiatrice dotandoli di telecamere, laser e sistemi GPS. Droni e un robot "scout", capaci di prelevare campioni di terreno, hanno aiutato i ricercatori a monitorare il campo da lontano (su Youtube potete vedere diversi video dei macchinari all'opera).

Kit Franklin, a capo del progetto e ingegnere agrario, ha ammesso che si è trattato dell'ettaro di orzo più costoso di sempre, ma anche che, battute a parte, è un assaggio di quello che verrà.

"L'automazione è il futuro dell'agricoltura, ma siamo in una fase in cui le macchine agricole hanno dimensioni decisamente insostenibili", ha detto Franklin al Times. Secondo lui l'agricoltura si appoggerà a veicoli più piccoli e intelligenti, che potranno lavorare con maggiore precisione senza danneggiare il suolo e di conseguenza l'andamento delle successive colture.

Anche se il progetto è andato a buon fine, non sono mancate le difficoltà. Il trattore non è riuscito a mantenere una linea rettilinea nel campo, quindi la semina è avvenuta in modo poco uniforme. Inoltre il team ha faticato a modificare rapidamente il trattore per l'irrorazione. Kieran Walsh, agronomo, ha anche espresso difficoltà nel controllare un campo tramite un video.

Insomma, forse il "contadino" non sparirà del tutto, ma dovrà evolversi: dovrà saper controllare i robot e capire se funzionano in modo corretto. Per diverso tempo le "macchine" non saranno in grado di sostituire quella capacità unica di capire e conoscere la terra che contraddistingue ogni agricoltore, ma anche quel traguardo verrà raggiunto prima o poi.

L'intelligenza artificiale sarà la chiave. Spesso ne scriviamo parlando automobili, ma l'IA troverà spazio anche in agricoltura, tanto che nelle scorse ore la John Deere ha acquistato per 305 milioni di dollari Blue River Technology, startup nata nel 2011 a Sunnyvale (California) specializzata nell'agricoltura di precisione.

Blue River Technology ha creato, tra gli altri, un sistema che si avvale del machine learning e della computer vision per ottimizzare l'uso dei pesticidi, che potranno così essere irrorati in modo più mirato. John Deere ha tutta l'intenzione di integrare questa e altre soluzioni sulle proprie macchine.

No comment yet.
Scooped by Mirko Compagno
Scoop.it!

Examples of Gamification in Healthcare - The Medical Futurist

Examples of Gamification in Healthcare - The Medical Futurist | Augmented World | Scoop.it

Sequin dresses, champagne and smiling faces counting down to the new year. Some kisses here and some resolutions there. This time, Samantha thought everything will be different. She made a resolution every year to change her lifestyle into something fitter but she could not make a lasting change in the long run. But this time, she was absolutely determined. In the first weeks of January, she bought new shoes and active wear, she started to spinning class twice a week and promised herself a biking weekend as a reward in the spring.

But then in February, Jim’s birthday celebration collided with her work out session, so she missed it out. Afterward, her mom needed to be brought to the hospital due to chest pains, while another time her fridge broke and needed to wait for the technician. March was already upon her when she realized – she does not go to the gym anymore.

Her story is one of ours, no matter whether it’s about sports, eating, reading more or working less. I spoke to Jurriaan van Rijswijk, Chairman of the Games for Health Europe Foundation, about why it is so hard to adopt new habits. The gamification expert said that motivation is one factor in changing behavior, but loyalty towards the subject of change is something people usually don’t consider. 


The money versus time issue is often why desired long–term behavioral change fails. So instead of trying to buy your way into change with sport clothing items or pricey devices, at first, you should start spending time exercising with limited resources and technology. Then gradually the new behavior becomes valuable, and you will spend more and more of your valuable time doing it.

Technology can be your coach supporting lasting change

The key to success is time commitment or loyalty to the subject. Both are really hard to reach, but there are factors making it easier. Some people are motivated by the feeling of community and socializing, others by getting rewards for certain achievements, competing against others, looking at data and measurements about small successes or making the whole process fun.

Technology can combine many of these factors and could become a resource liberating tool helping us spend more time on the desired goal. I have been measuring my health parameters and vital signs for years. I know that sometimes I run for another ten minutes just to beat my score from yesterday. However, there are many people for whom it is not enough motivation if you show their raw data, they need challenges, rewards or some community. Gamification can do the trick for them.

Gamification is the new buzzword in healthcare

Game play focuses and controls our attention, taps into our innate strengths, thrills us utterly, and compels us to greater resilience in the attainment of more powerful and effective skills. That’s why many believe it is perfect for behavior change in healthcare. A game is more than the automatic collector of vital signs and notifications. Gamified services engage us, keep us motivated and helps us down the bumpy road of change. It’s the combination of a great buddy and a considerate parent. That’s why I believe gamified solutions will spread like epidemics in healthcare as well.

But it is really difficult to find the right balance for digital tools to act as sources of motivation not turning into burdensome constraints or “digital whips”. In 2016, Fitbit announced that it was partnering with employers, corporations to track employees and mine that data in order to monitor employee health habits. Fitbit was introduced way before in several companies as “the corporate fitness tracker” creating common challenges and competitions for employees – which is fun and motivating. In an interview, Adam Pellegrini, VP of Digital Health for Fitbit told me Houston Methodist implemented a month-long step challenge where employees went head to head with their departmental CEOs. Average daily step count to beat was 16,000! Now that’s what I call a challenge!


But imagine that your boss knows about your fitness goals, sees your data – and has the capacity to forward it to the health insurance company deciding about your premiums! Imagine that you are making a lot of effort to lose weight but still your employer considers that it is not enough… Where are the boundaries of a motivating tool? How far could employers, moreover health insurance companies go when it comes down to the health or fitness issues of their employers or users? Complex and difficult questions which need to be answered soon!

Great game design is difficult

As you could already discern from the above, game design is a very difficult area. You need something which pulls you in but does not make you toxically addicted, which is fun but also informative, which creates achievable but not that easy challenges. Not to speak about the most problematic part of a gamified device or app: its ability to achieve lasting change.

There was a recent study which examined the effects of Pokémon Go. Shortly after the release of the little monster hunting adventure, there was a lot of enthusiasm that it would be a healthy addiction by getting users more active. Pokémon Go players’ steps went up from an average of 4256 steps per day to 5123 steps in the first week of playing the game. After that, though, there was a gradual decline back to where they started by the sixth week. That pattern was consistent across various subgroups based on neighborhood walkability, income level, age, and more.

However, there are good examples of apps and services that provide motivation, rewards and reinforce commitment. If we respect the fact that it will only work when participation is voluntary and self-motivated, they could really help in achieving great things. Here, I collected some of the most widely known game-based digital technologies in healthcare.


1) Physical fitness

I already mentioned Fitbit & Co: how common challenges can be set up through the Fitbit community interfaces and how competition could motivate better gym performances and step counts. EveryMove also counts on your competitiveness. It collects data from trackers and apps we already use to allow friends to compare one another’s progress. Social motivation, such as seeing that my friends went for a run today but I haven’t yet, is a strong one.

Blue Shield California, a not–for–profit health insurer, attempts to make wellness fun via social media. Participants earn points, badges, status, and see their progress. Blue Shield claims that 80 per cent of its employees have participated, and had a 50 per cent drop in smoking prevalence.

CaféWell does something similar with its health programs. It is focusing on giving guidance and support to people who want to live a healthier life. In its personalized programs, they focus on your own needs in order to eat better, incorporate exercise into your life, reduce stress or walk that extra mile. The app called Pact goes even further: it tracks fitness progress on mobile devices, and those members who don’t meet their fitness standards have to contribute money to a fund that rewards members who do meet their standards. The idea is simple: if you have to pay for something with your hard-earned money, you will think twice before growing lazy.


2) Medication and chronic condition management

Mango Health developed a smartphone application designed to motivate patients to take their medications on time. Users set the times when medications should be taken, and the app reminds them. It also provides information about the medications and warns about drug interactions and side effects. By taking the medications properly, users earn points towards gift cards or charitable donations in raffles held weekly.

Bayer’s Didget blood glucose meter, which connects to a Nintendo DS gaming platform, is intended for kids between 4 to 14. It helps manage their diabetes by rewarding them for consistent blood glucose testing. As points accumulate, new game levels and options unlock. There are leader boards with kids who collected the most points, web games and an online community as well.

The Austrian startup, mySugr also offers its gamified solutions for diabetes management in a fun way both for children (mySugr Junior app) and adults. As the creator of the cute diabetes monster, mySugr has already over a million registered users, is available in 52 countries and in 13 different languages. It was recently acquired by the global pharmaceutical company, Roche.


3) Gamification for kids

It is especially important to apply gamification for medical solutions aimed at children as they usually do not understand the importance of therapies or drugs for their health, in the long run, they just consider the short-term miseries. They do not want to swallow bitter pills or eat vegetables, do not want to go to therapy or stay in the hospital. Gamification can help forget kids that they are undergoing therapy or medical treatment. If they believe they are swallowing the secret of a long-gone civilization with the pill and only their enteric bacteria could decipher that code, they would gladly take any drug.

For example, the American Red Cross developed an app called Monster Guard focused on helping prepare children for emergencies. It teaches kids through “Monster Guard Academy” how to prepare and stay safe during home fires, hurricanes, floods or other disasters, and they get points and medals for completing tasks.

Raising a health-focused and fit child is also easier through gamification. Leapband or Vivofit jr., for example, encourages kids to stay on the move. The latter tracks steps, sleep and 60 minutes of daily recommended activity. Kids are able to earn coins to redeem for agreed-upon rewards, while parents can monitor the kiddos’ steps and active minutes, assign chores and even hand out those virtual rewards.


4) Physical therapy and rehabilitation

After a serious injury or a stroke, it is difficult and time-consuming to reach even an agreeable level of independence regarding movement or other activity. If you have trouble imagining what it’s like to tackle everyday challenges after waking up from an accident, try the SCI Hard gaming app developed by the University of Michigan. Gamified therapies could help in making rehabilitation more fun, stretching abilities playfully and divert attention from pain. Reflexion Health uses a video feedback system to correct the movements of patients practice physical therapy based exercises. The system works in patients’ homes. Movements are modeled by animated figures. Motion guided technology compares patients’ movements with those of the models and gives guidance and correction suggestions.

A Canadian company, GestureTek Health develops applications specific to health, disability, and rehabilitation. Its VR exercise programs enable patients to have fun while stretching their physical and cognitive capabilities. MindMaze created devices, which use virtual reality, brain imaging and gaming technologies to retrain the brain in stroke victims. It also works on solutions for spinal cord injury and amputee patients.

In the medical world, compliance is the word that is used to describe to what extent patients abide themselves by the therapy. Yet, as patients are more and more empowered, the expression becomes more and more offending as it assumes that patients are blindly following the doctor’s commands and do not follow recommendations voluntarily. Instead, they want to actively take part in their health, they want the patient-doctor relationship to be on an equal level. Instead of compliance, they want to be motivated on the long-run.

With digital health powered healthcare in the future, gamification will be the help already motivated patients need in order to stick to therapies without burdening efforts.

No comment yet.
Scooped by Mirko Compagno
Scoop.it!

Google teams with Oxford to teach machines to think

Google teams with Oxford to teach machines to think | Augmented World | Scoop.it

SAN FRANCISCO - Google on Thursday announced a partnership with artificial intelligence teams at Oxford University to teach machines to think like people.

Mirko Compagno's insight:

Oxford professors behind spinoff startups Dark Blue Labs and Vision Factory will work with DeepMind, a London-based startup that Google bought early this year.

Financial terms of the alliance were not disclosed, but DeepMind co-founder and Google vice president of engineering Demis Hassabis said in a blog post that it involves a "substantial contribution" to set up a partnership that will include student internships, joint lectures, and workshops.

The artificial intelligence effort will be aimed at getting machines to better understand what they hear and see, potentially powering services such as intuitive virtual assistants and online search tools.

Google earlier this week was among a group of investors participating in a $542 million funding of Magic Leap, which produces software for augmented reality, calling the effort a new "visual computing platform."

No comment yet.
Scooped by Mirko Compagno
Scoop.it!

L’intelligenza artificiale nel settore delle costruzioni –

L’intelligenza artificiale nel settore delle costruzioni – | Augmented World | Scoop.it
Il settore delle costruzioni è stato tradizionalmente afflitto da bassi livelli di innovazione, con conseguente produttività e crescita limitate. Mentre altri settori hanno abbracciato la trasformazione digitale e l'automazione, l'edilizia è stata lenta nell'adottare strumenti innovativi come l'intelligenza artificiale (AI).Tuttavia, i potenziali benefici dell'IA nel settore delle costruzioni sono enormi, con applicazioni che riguardano la…
No comment yet.
Scooped by Mirko Compagno
Scoop.it!

Google sospende l’ingegnere che afferma che la sua IA ha un’anima | THE ROUND

Google sospende l’ingegnere che afferma che la sua IA ha un’anima | THE ROUND | Augmented World | Scoop.it
Google ha sospeso un suo ingegnere – Blake Lemoine – dopo che quest’ultimo ha affermato che il Language Model for Dialogue Applications (LaMDA) dell’azienda avesse una coscienza e un’anima. LaMDA è un potente algoritmo di Google per la comprensione del linguaggio naturale, presentato durante...
No comment yet.
Scooped by Mirko Compagno
Scoop.it!

HUA ZHIBING: LA PRIMA STUDENTESSA VIRTUALE CINESE

HUA ZHIBING: LA PRIMA STUDENTESSA VIRTUALE CINESE | Augmented World | Scoop.it
Hua Zhibing, la prima studentessa virtuale cinese sviluppata dalla Tsinghua University ha incontrato i fan giovedì quando ha aperto un account sulla piattaforma cinese Sina Weibo (sito di microblogging cinese). Nel primo post su Weibo, la studentessa virtuale di nome Hua Zhibing, ha salutato i netizen cinesi e ha detto che inizierà a studiare nel…
No comment yet.
Scooped by Mirko Compagno
Scoop.it!

I cyborg sono già tra noi: scopriamo chi sono

I cyborg sono già tra noi: scopriamo chi sono | Augmented World | Scoop.it

Prima di iniziare, c’è un elemento da chiarire subito, perché rappresenta un errore che risiede nelle nostre teste: come immaginiamo un cyborg?
Di base, si immaginano i cyborg come robot umanoidi dotati di un’intelligenza artificiale super avanzata. I cyborg che popolano la nostra fantasia hanno come unico scopo nella loro infinita vita quello di sterminare la razza umana, per questioni di dominio o chissà cos’altro.

Il motivo di ciò è da imputare a film, libri e fumetti fantascientifici, spesso improntati sulla paura. Questo forse per avere più attenzione da parte dello spettatore, perché un sentimento negativo, come la paura, riesce a tenerti incollato allo schermo (o al libro, o al fumetto), al contrario –ad esempio-  di un sentimento positivo, come la curiosità del futuro. Così, non ci rendiamo conto che, invece, siamo già circondati dai veri cyborg da anni.

Il transumanesimo
Facciamo un ulteriore passo in avanti e definiamo il transumanesimo: è una corrente di pensiero che propone di utilizzare in modo invasivo tutte le forme di tecnologie immaginabili (e ancora inimmaginabili) per superare i limiti umani, quali:
– invecchiamento, ovvero il deterioramento del corpo umano, che ha come conseguenza la morte;
– malattie
-mutazioni genetiche
– capacità mentali e fisiche.

Il transumanesimo è attualmente un futuro molto lontano e parecchio esasperato, ma può esserci da punto di partenza per parlare dei cyborg.

L’anno scorso, a ottobre 2016, in Svizzera, si sono tenute le Cybathlon, il primo evento sportivo orientato completamente verso atleti che usano dispositivi high-tech (protesi, esoscheletri e altri dispositivi robotici ed assistivi).
Di differenziano dalle Paralimpiadi perché non si tratta di sport “comuni” praticati da persone diversamente abili. Si tratta di discipline totalmente nuove, che spesso possono fare esclusivamente i cyborg.
Ad esempio c’è la Corsa Brain Computer Interface, dove persone che utilizzano la BCI controllano degli avatar che devono correre lungo un percorso.

Lo scopo del Cybathlon è sia di invogliare a investire sulla Ricerca in questo ambito e sia di cambiare la percezione che si ha delle persone che usano queste tecnologie, cercando di farle percepire come “normali”.

Quindi, attualmente un cyborg è una persona che usa la tecnologia per ristabilire una funzionalità persa o parzialmente danneggiata.
C’è, però, la nuova generazione di cyborg, ovvero i cyborg ricreazionali, che vogliono diventare cyborg (ad esempio aspirando ad una vista o udito perfetti) solo perché possono e vogliono farlo.

I cyborg ricreativi
L’uomo nella foto qui sopra è il professor Steve Mann, conosciuto ai più come il primo cyborg al mondo (anche se, da quanto abbiamo detto prima, possiamo intuire che questa definizione non è proprio corretta).


Se non possiamo essere sicuri di definirlo “il primo cyborg al mondo”, possiamo però essere sicuri che è stato il primo ad avere una foto sul passaporto (nel 1995) in cui appare come un cyborg.
Steve Mann non è un novellino: ha iniziato a lavorare su dispositivi indossabili già quando frequentava il liceo, negli anni ’80. All’epoca già lavorava un “occhio digitale”.


L’IEEE, ovvero l’Institute of Electricaland Electronics Engineering ha definito Steve Mann come il padre della realtà aumentata e dei dispositivi elettronici indossabili.
Avete presente l’HDRI (High Dynamic Range Imaging)? l’ha inventata lui.

L' Eyetap digital eye glass. E’ un dispositivo in grado di catturare tre immagini simultaneamente a diverse esposizioni. Le immagini vengono combinate insieme in real time per produrre una visione del mondo che ha una ricchezza di dettagli irraggiungibili per l’occhio umano. Quindi, con questi occhiali, Steve Mann vede dettagli che normalmente nessuno vede.


Il passo successivo che sta portando avanti è di inserire questo sistema (con una telecamera) dentro un occhio prostetico.
E, a proposito di telecamere, qui si aprirebbe anche tutto il discorso delle registrazioni effettuate con questi dispostivi. Mann (e molti altri) dicono che queste registrazioni si possono paragonare alla memoria umana, mentre molti altri dicono che il paragone non sussiste.

L’uomo con più sensori addosso
Pensate sia troppo? Spingiamoci un po’ oltre: parliamo di Chris Dancy, considerato “l’uomo più connesso al mondo”.
Ha centinaia di sensori addosso, che acquisiscono dati in tempo reale sulle più svariate informazioni. Lui afferma di utilizzare questi dati al solo scopo di migliorare le sue abitudini. Pensate che ha perso anche 45kg.


E’ convinto che questo sia il futuro; afferma che bisogna ancora capire come utilizzare al meglio queste informazioni, ma è convinto che in un futuro non troppo lontano, le persone misureranno più dati possibili riguardo il loro stato di salute, o lo stato dell’ambiente in cui vivono.

Quindi, non solo i cyborg sono già tra noi, ma a quanto pare sarà sempre più possibile aumentare le proprie capacità fisiche e mentali, proprio come vuole il transumanesimo.

No comment yet.
Scooped by Mirko Compagno
Scoop.it!

The Future Is About Empathy, Not Coding

The Future Is About Empathy, Not Coding | Augmented World | Scoop.it

At the dawn of the Fourth Industrial Revolution, automation and digitization of our worlds and workplace are continuing, changing the job market, the nature of many jobs and even the concept of what it means to be working. Many fear that robots and automation will take their jobs without alternatives. The phenomenon is not new: in the 19th century, members of the Luddite movement – textile workers and weavers – destroyed weaving machinery in protest and fear that machines would take their place in their industry.

Lately, the same fears emerge in healthcare about artificial intelligence taking the jobs of radiologists, robots surpassing the skills of surgeons, or taking jobs in pharma. A renowned voice in tech, Kai-Fu Lee, founder of venture capital firm Sinovation Ventures told CNBC that A.I. will be bigger than all other tech revolutions, and robots are likely to replace 50 percent of all jobs in the next decade. Stephen Hawking even said that the development of full A.I. could spell the end of the human race. Elon Musk agreed.

Is basic income tax the solution? Or turning to coding?

As the fears of losing the battle against new technologies grow exponentially, alternatives on the individual and social level already surfaced. The most popular policy-level concept is the introduction of the universal basic income, in which case the government would give everyone just enough money to live on while creating incentives for individuals to take risks, start businesses, change jobs, return to school or try a new career. 


Another idea is the negative income tax, where the state would give the poor money the same way as in the case of taxing rich people; but Bill Gates would tax robots and some economists think the solution lies at the heart of governments creating more jobs.

While these responses for the challenges of automation and digital technologies are only ideas at the moment – except for the national-scale experiment of Finland with universal basic income -, it is natural that people are making steps to secure their own futures. No wonder that so many are considering to give up their current profession and try their luck in programming, coding, and entrepreneurship in general. 


As it seems that the hottest professions of the day are those dealing with data science, coding and computing. While many think that it might even be the case in healthcare, I believe that if someone truly pictures himself or herself among medical professionals in the future, other skills, such as the futurist mindset and social skills coupled with sound digital literacy might be more important than coding or entrepreneurial spirit.

The importance of the futurist mindset

I’m not saying that everyone should get a crystal ball and concentrate strongly on what it is trying to say. Yet, it is important to look ahead and continuously monitor the current trends with a notion of how it might affect one’s job, family or environment in general. Personal computers, laptops are only around for a couple of decades, not to speak about the wonder called world wide web! In the 1950s, no one would have thought that a little bit more than 60 years later, the most pursued jobs and skills will be those of the data scientists and coders.

Many jobs that might be around in healthcare in a couple of years, do not exist yet. What if we will have robot companion technicians soon? What about gamification specialists or AR/VR operation planners? While they all might be possible, you cannot really prepare for them only by studying more coding or data science. What everyone needs to understand is that the most important is to familiarize with the latest technologies and prepare for the changes in time. 


We have to have meaningful conversations about how such changes affect people and the future generations. For example, the generation born today will play with AI friends and have VR teachers. That might come with a completely different view on the worlds as ours today, so we need to be open, mindful and curious. Just as a futurist!

Social skills and empathy

In healthcare, soft skills such as empathy – and the jobs connected with it will be valued more and more in the future. It makes complete sense. Automation, robots and artificial intelligence will perform certain cognitive tasks brilliantly to the extent that humans will not be able to compete. Where could humans have a chance? At the so-called soft skills: creativity, empathy, compassion and paying attention to each other. 


Although artificial intelligence will perform diagnostic tasks or robots might be able to do surgeries, but could they talk to a patient with empathy about the risks and consequences of an operation?

Moreover, as digital health simplifies administration and cuts down on monotonous tasks, the workload of doctors and nurses will be reduced, so they will be able to concentrate on what really matters – healing the patient and guiding him through the entire process with care. I think, eventually, AI would be able to mimic even such soft skills but as we are social beings, we will always need the human touch.

The shift towards jobs requiring soft skills already shows in the numbers. The US Bureau of Labor Statistics predicts that while jobs for doctors and surgeons will rise by 14 per cent between 2014 and 2024, the top three direct-care jobs – personal-care aide, home-health aide, and nursing assistant – are expected to grow by 26 per cent.

However, as Livia Gershon writes here, we seriously need to rethink our perspective towards jobs requiring social skills; as they are usually underpaid and undervalued. As care work and other types of labor containing mainly soft skills cannot contribute to the GDP growth as effectively as other types, the global economic system cannot value it appropriately. 


However, as the age of artificial intelligence and robots is coming, soft skills become much more valued and those who plan to enter the social care sector now will reap the benefit of it – not to speak about patients and society in general!

Digital literacy

Although I argue against medical professionals massively going into coding and programming in general, I am certainly not against digital technology and digital literacy. On the contrary! I believe that it is way more important than many other skills in today’s digital world. I only think that it is more relevant to interact and use technology than to understand it down to the tiniest detail. Especially for medical professionals.

Although in the future, it also might change what digital literacy means. Plenty of schools started to incorporate the basics of computer science, coding and programming into their courses. For example, former US President Barack Obama announced a ‘computer science for all’ program for elementary and high schools in the United States. And while I’m all for STEM education, I would be happy to see schools focusing more on voluntary work in helping the elderly or other groups of people in need, as what kids learn there might be more valuable than Python in the future.

While acquiring new skills related to digital technologies, of course, makes sense, in healthcare, it might make even more sense to focus on skills we should have been good at but the nature of our profession didn’t allow it. With disruptive technologies, physicians would finally have time to focus on the patient, deal with challenging decisions and enjoy their profession again.

No comment yet.
Scooped by Mirko Compagno
Scoop.it!

ONNX è una piattaforma open source nata dall'interazione fra le IA di Facebook e Microsoft

ONNX è una piattaforma open source nata dall'interazione fra le IA di Facebook e Microsoft | Augmented World | Scoop.it
C’è chi prosegue il loro sviluppo in maniera spasmodica e c’è chi, invece, ci mette in guardia circa la loro potenziale pericolosità nei nostri confronti. Stiamo parlando delle intelligenze artificiali, piattaforma di machine learning sulle quali si basano ormai la maggior parte dei servizi online.

Paradossalmente però, nell’essere molto intelligenti nel fare determinate cose, le attuali versioni sono molto “stupide” nel farne altre. Infatti, all’infuori del loro campo di azione, sono del tutto inutili. Per cercare di correggere il tiro, Microsoft e Facebook hanno annunciato di aver collaborato negli scorsi mesi creando la piattaforma open source Open Neural Network Exchange, abbreviata in ONNX.

Essa è il frutto dell’interazione di MS Cognitive Toolkit, FB Caffe2 e FB PyTorch (in futuro potrebbero unirsene di nuove. Il suo scopo ultimo invece è quello di fornire una flessibilità maggiore a tutti quegli scienziati che necessitano di specifici tipi di calcolo (potendo utilizzare per ogni task una piattaforma diversa) oppure ai produttori di hardware che possono aggiornare con velocità più framework in una volta sola.

ONNX LANCIA LA SFIDA A TENSORFLOW
Al momento non sono stati pubblicizzati dei progetti importanti che fanno uso della piattaforma ONNX (il codice su Github è stato appena pubblicato). Probabilmente però è solo una questione di settimane, visto il processo di sviluppo sempre più rapido.

La cosa interessante di ONNX è la grande concorrenza e pressione che mette a TensorFlow, il framework proposto da Google ormai da qualche anno(anch’esso open source). Vedremo se le due piattaforme continueranno a concorrere oppure se vi sarà una fusione.
No comment yet.
Scooped by Mirko Compagno
Scoop.it!

L’alba dei robot sorgerà tra 45 anni

L’alba dei robot sorgerà tra 45 anni | Augmented World | Scoop.it

Isaia amava minacciare gli uomini con la promessa dell’ira di Dio; ma tra le sue profezie si incunea un momento di poesia, e di speranza, quando risuona la domanda «Sentinella, a che punto è la notte?». Nel disorientamento dei nostri giorni, tra l’euforia per il progresso tecnologico e il terrore per le ricadute sul lavoro e sulla riservatezza dei dati personali, un interrogativo molto simile è stato posto da cinque ricercatori della Oxford e della Yale University, in un’indagine pubblicata il 31 maggio: When Will Artificial Intelligence Exceed Human Performance? Quando l’intelligenza artificiale supererà le prestazioni dell’uomo?

I loro interlocutori sono stati i 1.634 ricercatori che nel 2015 hanno presentato almeno una pubblicazione alle conferenze Nips e Icml, i più importanti convegni di intelligenza artificiale del mondo. Sono loro i guardiani del nostro futuro planetario; ma solo il 21% ha onorato il compito rispondendo alle domande del questionario: si tratta pur sempre di 350 studiosi, un numero non disprezzabile. Quando si comincerà a intravedere l’alba di un nuovo mondo in cui gli automi saranno dotati di un’emotività e di una personalità paragonabile a quella degli esseri umani? Arriverà il giorno in cui si infurieranno contro di noi, e pianificheranno uno sciopero per protestare contro la condizione di schiavitù in cui li avremo segregati?

La domanda su quanto durerà ancora la notte dell’incoscienza dei robot, rinchiusi nelle istruzioni del software, senza libertà e senza fantasia, si declina in un insieme di interrogativi su tre aree: l’evoluzione dell’ingegneria del pensiero, lo scavalcamento degli uomini in abilità professionali specifiche, le conseguenze sociali del progresso dell’intelligenza artificiale.

L’acronimo Hlmi («intelligenza di alto livello delle macchine») denota la fine del sonno dogmatico, che imprigiona i calcolatori nel determinismo delle istruzioni sequenziate nel programma: la soglia sarà attraversata quando gli automi saranno in grado di svolgere i compiti assegnati meglio (e a un costo inferiore) degli agenti umani, senza soccorsi dall’esterno. In altre parole, senza iniezioni sleali di memoria enciclopedica, in cui siano capitalizzate informazioni non elaborate dall’esperienza vissuta del robot. Dovranno imparare da soli, come fanno i bambini. È una soglia che ha animato le utopie negative della fantascienza, ogni volta in cui è sorto il sospetto che l’alba del pensiero informatico possa coincidere con la discesa della notte sulla società degli uomini, consegnata ad un’epoca di miseria e di schiavitù.
 
Il futuro tra 45 anni

A colpo d’occhio, la soglia dell’Intelligenza di alto livello le macchine potrebbero attraversarla tra 45 anni, con una probabilità del 50%; anticiparla tra nove anni, riduce le possibilità al 10%. Ma se si disaggrega il dato complessivo, emergono le differenze tra le stime degli esperti sulle due sponde dell’Oceano Pacifico. Gli specialisti americani allontanano il raggiungimento del risultato a 74 anni; per i cinesi, invece, la previsione deve essere anticipata a 30 anni – meno della metà del tempo pronosticato dai colleghi occidentali.

Questo dato contiene un’informazione che ha a che fare con le strategie politiche di investimento dei diversi paesi: quando la domanda verte sul risultato generale, il pensiero viene condizionato dal volume di investimenti e dalla pressione dei finanziatori, più che dall’analisi degli aspetti cognitivi, ingegneristici e politici. In Asia il maggiore ottimismo di chi lavora sull’intelligenza artificiale dipende da un fattore esclusivamente finanziario: l’I.A. è uno dei settori che il governo di Pechino ha identificato come strategico per il successo economico della nazione e su cui convergono valanghe di denari. Il fatto che Donald Trump abbia manifestato il suo entusiasmo soprattutto per l’estrazione di carbone, e abbia investito sul lavoro dei esseri umani impegnati nelle miniere di carbone, non ha invece contribuito al risveglio né dell’intelligenza artificiale, né tanto meno di quella naturale.

Prima sfida: i videogiochi

La soglia dell’Hmli non si attraversa tutta d’un colpo. Secondo le nostre sentinelle, l’arrivo della nuova era in cui le macchine saranno più intelligenti di noi comincerà ad annunciarsi nelle partite di Angry Birds: l’abilità dei computer nel manovrare il videogame dovrebbe superare quella umana entro il 2019, con una probabilità del 50%. Secondo i più ottimisti, gli uccellini furiosi della Rovio Entertainment potrebbero essere dominati dalle competenze del pensiero informatico entro la fine di quest’anno; per i più pessimisti, l’appuntamento con l’incoronazione di un campione digitale deve essere rinviato al 2024.

La destrezza per interagire con tutti i giochi della Atari, meglio dei ragazzini in carne ed ossa, deve attendere ancora poco meno di otto anni, sempre con una probabilità del 50%; per un esercizio umile – ma prezioso – come il ripiegamento della biancheria (ma con il talento di un commesso), la scadenza è fissata al 2020. Le madri preferirebbero che i pargoli mettessero in ordine la stanza prima di divertirsi; le macchine, come i giovani, antepongono il gioco al dovere.

Se si passa a incarichi di maggiore vocazione intellettuale, la trascrizione di un discorso orale e la traduzione da una lingua all’altra (ma solo al livello di competenza di un non-professionista), sono attese tra sette anni – sempre con una probabilità del 50%. Nel 2025 gli automi cominceranno a scrivere tesine di livello universitario, e sapranno giustificare le mosse eseguite per vincere le partite dei videogame: come nella definizione di Thomas Kuhn, anche la scienza in fondo è un gioco, un rompicapo, perlomeno quando sta attraversano un periodo «ordinario».

Passeranno poco più di dieci anni prima che una macchina sappia comporre una canzone, paragonabile a quelle che occupano le prime 40 posizioni nelle classifiche di vendita; lo farà mentre imparerà a guidare un camion meglio di un pilota umano, ma le serviranno altri tre anni per riuscire a persuadere i clienti, con il talento di un venditore professionista. Vedremo come le learning machine se la caveranno con l’attitudine all’omissione di verità, e con l’inclinazione alla truffa: l’esperimento Tay di Microsoft, l’intelligenza artificiale diventata razzista dopo meno di 24 ore di dialoghi su Twitter, legittima più di una preoccupazione.

L’ottimismo degli scienziati

I risultati più sofisticati sono rinviati di oltre un quarto di secolo. La redazione di un libro, che possa ambire a entrare negli elenchi dei bestseller del New York Times, richiederà ancora più di trent’anni di sviluppi; per arrivare alla prima generazione di chirurghi e di matematici meccanici, occorrerà aggiungere altri cinque anni di progressi. Per chi ha la mia età, l’attesa di vita promette di arrivare a vedere questi successi – ma nient’altro – prima di lasciare questo mondo.

Gli esperti di intelligenza artificiale nutrono un’opinione di sé così alta, da ritenere che nascerà un ricercatore (informatico) di AI solo tra ottant’anni: saranno già trascorsi cinquant’anni dalla realizzazione dell’automa che saprà imitare tutte le facoltà di un uomo medio, e ne serviranno altri quaranta per un robot che riuscirà a superare, per doti cognitive e maestria pratica, i migliori specialisti di qualunque attività professionale.

No comment yet.