Sciences et technologies
2.1K views | +2 today
Follow
Your new post is loading...
Your new post is loading...
Scooped by Schallum Pierre
Scoop.it!

Schallum Pierre présentera SYNTHÈSE, la Bibliothèque numérique de l'ISTEAH, à la HSA : 12 nov à 13h

Schallum Pierre présentera SYNTHÈSE, la Bibliothèque numérique de l'ISTEAH, à la HSA : 12 nov à 13h | Sciences et technologies | Scoop.it
Le Système National de thèse, SYNTHÈSE, a été développé au Laboratoire de recherche en réseautique et informatique mobile à Polytechnique Montréal http://www.larim.polymtl.ca/.
SYNTHÈSE est une Bibliothèque numérique où l’on peut déposer et consulter des mémoires, des thèses et des documents scientifiques relatifs à Haïti. Son objectif est de rendre disponibles des connaissances scientifiques sur Haïti dans tous les champs de savoir.
SYNTHÈSE permet la recherche d’informations et de documents selon plusieurs critères qui sont mis à la disposition des utilisateurs. Pour chaque document déposé, un contrôle de conformité est exercé par le gestionnaire du système afin de s’assurer de la qualité et de l’intégrité de ce document. Seuls les documents jugés conformes sont rendus disponibles aux utilisateurs.

Comité Éditorial
 Samuel Pierre, ing., Ph.D., responsable
James Féthière, Ph.D.
Etzer France, Ph.D.
 Schallum Pierre, Ph.D.
Pierre Toussaint, Ph.D.
Jean-Marie Vilaire, Ph.D.
 
Équipe technique
 Raymond Kernizan, responsable
Ralès Bessard
Stéphane Debus
Michel Eboueya, Ph.D.
 Éric Fafolahan
Rubens Jean Pierre
 Tanga Mathieu Kaboré
more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

3D printed water-maker can create 2 liters of drinking water every hour out of the air

3D printed water-maker can create 2 liters of drinking water every hour out of the air | Sciences et technologies | Scoop.it
Indian engineer, Jawwad Patel, has invented a small device, known as the Dewdrop, that is capable of producing two liters of water every hour from the air.
It is a relatively simple-to-create device, as it is just a container that constantly refills itself, using fans to bring in moisture from the surrounding environment.    It filters the dust from the air and mineralizes the water as it's being created.  The water is condensed using the Thomson and Peltier effect.

Here it is
Though it produces about 1.86l/hr in humid environments, it can still create about 1.2l/hr in desert-like areas.  It is powered by a 12V 6000 mAh Lithium-ion battery.
Advancements are being made to the machine that will allow it to be powered by solar panels and let the user choose if they want hot or cold water.
 
more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

#CNIL : Gestionnaires de mots de passe, libre et gratuit #Keepass #Zenyway #Passwordsafe

#CNIL : Gestionnaires de mots de passe, libre et gratuit #Keepass #Zenyway #Passwordsafe | Sciences et technologies | Scoop.it

Banque, e-commerce, messagerie électronique, documents, administration : de nombreuses démarches de notre vie quotidienne passent désormais par Internet et par la création de comptes sur les différents sites. Nombre de ces espaces privatifs contiennent des informations confidentielles qui ne doivent pas être rendues disponibles à des personnes non habilitées. Une étude de 2013 de Dashlane portant sur 100 sites de e-commerce français a révélé que 87% des acteurs de l’e-commerce acceptent encore des mots de passe "basiques" comme "123456", "azerty" ou "motdepasse", qui sont les premiers que les pirates informatiques vont essayer de taper. 17 % des internautes utilisent leur date de naissance. 


 Qu’est-ce qu’un « bon » mot de passe ?


 Un bon mot de passe doit être suffisamment long, et faire au moins huit caractères. Il doit être composé d’au moins 3 types de caractères différents parmi les quatre types de caractères existants (majuscules, minuscules, chiffres et caractères spéciaux). Il ne doit pas avoir de lien avec son détenteur (nom, date de naissance…).


 Comment construire un mot de passe sûr ? 


Des moyens mnémotechniques permettent de créer des mots de passe complexes, tels que : ne conserver que les premières lettres des mots d’une phrase exemple : la phrase « un Utilisateur d’Internet averti en vaut deux » correspond au mot de passe 1Ud’Iaev2. en mettant une majuscule si le mot est un nom exemple : Utilisateur en gardant des signes de ponctuation exemple : ’ en exprimant les nombres à l’aide des chiffres de 0 à 9 exemple : Un ->1 


 Avoir 4 ou 5 mots de passe différents pour tous ses comptes est-il suffisant ?


 Non, idéalement, il faudrait utiliser des mots de passes différents pour tous ses comptes. Il faudrait donc avoir un mot de passe spécifique pour chaque compte important (ex : compte de messagerie électronique, banque, etc.), et surtout ne pas l’utiliser pour un autre compte. Ainsi, en cas de compromission du mot de passe, les autres comptes ne seront pas compromis. En effet, supposons que vous utilisiez le même mot de passe pour votre compte de messagerie et votre compte de réseau social. Si votre fournisseur de réseau social est victime d’une fuite de données comprenant vos moyens d’authentification, une personne mal intentionnée pourrait les utiliser pour non seulement accéder à votre compte de réseau social mais aussi pour accéder à votre messagerie. De plus, une fois l’accès à votre messagerie obtenu, il deviendra possible de voir la liste des messages d’inscriptions à vos comptes sur différents sites (si vous ne les avez pas supprimés de votre boîte). Il sera ainsi possible de connaître certains de vos identifiants de compte et d’utiliser la fonction d’oubli de mots de passe pour en prendre le contrôle. Peut-on faire une liste de ses mots de passe ? Oui, mais pas n’importe comment : ne stockez pas vos mots de passe dans un simple fichier texte stocké sur votre ordinateur ou sur internet ; ne vous envoyez pas vos propres mots de passe sur votre messagerie personnelle ; supprimez systématiquement les messages qui vous sont envoyés par messagerie lors de la création de vos comptes, surtout s’ils contiennent votre identifiant et/ou mots de passe ; configurez les logiciels pour qu’ils ne se "souviennent" pas des mots de passe choisis ou, au moins, définissez un mot de passe principal, ou « mot de passe maître » qui permet de débloquer (ou non) leur utilisation ; Pour gérer ses mots de passe de façon pratique, il existe des « gestionnaires de mots de passe ». 

 

Quels gestionnaires de mots de passe peut-on utiliser ?


 Il est recommandé d’utiliser un gestionnaire qui permette de constituer une base de données de mots de passe chiffrée par un unique mot de passe « maître » dont la sécurité a pu être vérifiée. Cela vous permet de ne retenir qu’un seul mot de passe qui ouvre l’accès à tous les autres. Les mots de passe pourront alors être très longs, très complexes et tous différents car c’est l’ordinateur qui les retient à votre place. Ces logiciels facilitent par ailleurs la saisie, sans erreurs, des mots de passe et permet de retenir les nombreux identifiants et comptes que l’on collectionne avec le temps. En pratique, il existe de nombreuses solutions sur le marché. On peut citer entre autres, parmi les logiciels libres régulièrement mis à jour : Keepass, dont la sécurité a été évaluée par l’Agence nationale de sécurité des systèmes d’information (ANSSI), Zenyway ou Passwordsafe.

more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Appel de propositions de conférences pour R à Québec 2017 #UniversitéLaval

Appel de propositions de conférences pour R à Québec 2017 #UniversitéLaval | Sciences et technologies | Scoop.it

Le premier grand colloque annuel interdisciplinaire et francophone dédié à R en Amérique du Nord 


R à Québec 2017 est un colloque interdisciplinaire rassemblant chercheurs, étudiants, praticiens et professionnels des milieux académiques, gouvernementaux et industriels. À l’instar des conférences useR, ce premier colloque d’envergure au Québec dédié spécifiquement à l’utilisation de R favorisera le transfert d’expertise entre les disciplines, l’avancement des pratiques et, pour certains, le passage vers l’environnement R. La première journée sera consacrée à des ateliers de formation introductifs et avancés et la deuxième à des conférences. Date limite: 15 janvier 2017 Le comité scientifique du Colloque recueille présentement des propositions de conférences touchant, entre autres, aux thèmes suivants : statistiques descriptives analyse et traitement de données visualisation et graphiques modélisation, optimisation et simulation calcul haute performance forage de données applications en recherche, en enseignement ou dans les secteurs public ou privé Dans une perspective d’interdisciplinarité, l’accent de la conférence doit porter sur l’utilisation de R. Proposez une conférence Les présentations se dérouleront en français et elles seront d’une durée de 20 minutes. Il est possible que les auteurs de propositions de conférences non retenues soient invités à présenter sous forme d’affiche. Les conférenciers devront s’inscrire et payer leurs frais d’inscription. La date limite pour soumettre une présentation est le 15 janvier 2017. Comité scientifique : Alexandre Bureau – Département de médecine sociale et préventive, Université Laval Anne-Sophie Charest – Département de mathématiques et statistique, Université Laval Arnaud Droit – Département de médecine moléculaire, Université Laval Vincent Goulet – École d’actuariat, Université Laval Charles Fleury – Département de sociologie, Université Laval Pour toute information sur l’appel de conférence, contactez Vincent Goulet (Vincent.Goulet@act.ulaval.ca). Pour toute autre information sur R à Québec 2017, contactez Natacha Fontaine (raquebec@ulaval.ca).

more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

The 7 Dimensions of Good Open Source Management

The 7 Dimensions of Good Open Source Management | Sciences et technologies | Scoop.it

Organizations use open source software to gain competitive advantage in many ways: to speed up software delivery, save money on development, to stay flexible, and to stay on the leading edge of technology. But using open source software, and especially integrating and redistributing it in products and services, carries with it added complexity and risk. Code coming in from multiple sources, under different licenses and with varied quality and maturity levels, can expose organizations to issues with security, integration, support and management -- not to mention legal action -- if the code is not properly managed. That’s why companies that successfully leverage open source for business advantage, have established programs to manage their open source development processes. “When open source is business critical, it predicates the use of professional open source management,” said Bill Weinberg, senior director and analyst of open source strategy at The Linux Foundation. “You need a clear management strategy that aligns with your business goals. And you need efficient processes to ensure that compliance does not discourage participation.” Professional open source management requires a clear strategy, driven by your organization’s business objectives. It includes well-defined policies and a set of efficient processes that help an organization deliver consistent results with open source software. Below are the seven dimensions of a good corporate open source policy and processes, provided by Weinberg and Greg Olson, senior director of open source consulting services at The Linux Foundation. Want to learn more about professional open source management? Join Bill Weinberg and Greg Olson on Sept. 13, at 11 a.m. Pacific for a free webinar, “Open Source Professional Management - When Open Source becomes Mission-Critical.” Register Now.

7 dimensions of open source management


1. Discovery - Provide guidance for developers on how to find and evaluate open source software for use in their work.


2. Review and Approval - A checkpoint to review architectural compatibility, code quality and maturity, known bugs and security vulnerabilities, availability of required support, and license compatibility.


3. Procurement practices - Review and approval for code that enters through commercial procurement, rather than downloading from the Internet.


4. Code management and maintenance - ensures that open source is reliably tracked and archived and that it is supported and maintained at a level appropriate for each application.


5. Community interaction - clear guidelines for developers who interact with outside community members and an approval process for contributions to open source communities.


6. Compliance program - ensures that OSS elements subject to license requirements are identified and implemented.


7. Executive oversight - important for long-term success. Executives should review OSS management operations, participate in and approve open source management policy and approve policy exceptions and significant contributions to community projects. Legal executives should review all new OSS licenses and any licensing policy exceptions.

more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

#TwittÉdu Une communauté dédiée à l’exploitation de Twitter en classe

#TwittÉdu Une communauté dédiée à l’exploitation de Twitter en classe | Sciences et technologies | Scoop.it

Se lancer dans l’aventure Twitter avec ses élèves, c’est déjà fait pour les uns, ça arrivera cette année pour d’autres, ça mijote chez certains et ça semble complètement farfelu pour beaucoup! Ces quatre types d’enseignants peuvent cependant maintenant se retrouver en un lieu commun pour approfondir le tout. TwittÉdu, c’est un « répertoire des projets éducatifs collaboratifs utilisant Twitter ». C’est avant tout un groupe d’intérêt sur Facebook qui regroupe des enseignants francophones d’ici et d’ailleurs dans le but de participer à des projets d’exploitation pédagogique de Twitter et d’y trouver du soutien (technique et moral!) par les pairs. Dans ce groupe, on trouve notamment une liste évolutive de projets pédagogiques en lien avec Twitter. Des exemples déjà annoncés pour cette année : MaClasse2016 : un projet qui invite les Twittclasses à faire connaissance en ce début d’année, à créer des liens et à discuter de citoyenneté numérique;

Concours de twittérature du REFER 2017, qui se déroulera en janvier 2017;

Écouter lire le monde : un projet mondial de lecture interactive 2.0 se déroulant chaque année à l’automne.

L’édition 2016 se déroulera du 3 octobre au 11 novembre; AnimeHistoire3 : projet d’écriture collaborative international dont la 3e édition se déroulera du début janvier à la fin février 2017. En plus des idées de projets auxquels se joindre, on trouve sur ce groupe des ressources comme un répertoire de « Twittclasses ».


Pourquoi voudrait-on exploiter Twitter en classe?


La question a récemment été posée dans ce groupe public. Parmi les réponses, on suggère : « De nombreux projets sont proposés sur Twitter pour les classes chaque année »; « Twitter offre la possibilité aux élèves d’écrire et d’être lu au quotidien, d’être en communication avec d’autres classes francophones du monde, de communiquer avec des auteurs de livres, de participer à des projets collaboratifs, de montrer au monde (dont leurs parents!) ce qui se passe dans leur classe »; « Comme les écrits sont courts, la correction est rapide (les élèves apprécient) »; « La contrainte des 140 caractères force les élèves à travailler structures de phrases et synonymes. Et comme on ne publie rien tant qu’il reste des fautes, on travaille sur la fierté et l’importance de bien écrire »; « C’est une bonne façon d’éduquer les jeunes à une utilisation responsable et positive des réseaux sociaux. Ça leur permet de voir d’autres possibilités de la technologie que les jeux. » Enfin, à surveiller pour votre développement professionnel cette année, le retour des causeries #eduProf, tous les mercredis à 20h en direct sur Twitter! À vous de jouer, joignez dès maintenant le groupe Facebook TwittÉdu, et bonne twittrentrée!


Article initialement publié sur le site : http://ecolebranchee.com/2016/08/25/une-communaute-dediee-a-lexploitation-de-twitter-en-classe/ Audrey Miller Dernière modification le lundi, 05 septembre 2016 Ecosystème numérique, Enseigner et apprendre, Réseaux sociaux, Pratiques collaboratives, Plus dans cette catégorie : « Sors ton smartphone de ta poche ! Evaluation par les pairs, formative et réflexive » Miller Audrey Miller Audrey Sur Twitter : @millaudrey http://www.amtice.com


Audrey est rédactrice en chef de L'École branchée. Elle s'implique dans l'organisation d'EdCamp Québec et du Rendez-vous des écoles francophones en réseau (REFER), ainsi qu'au sein du conseil d'administration de l'AQUOPS. En dehors de cela, elle est consultante en communication et formatrice en technologie éducative. Derniers articles de Miller Audrey Genial.ly : une nouvelle plateforme de création de contenus interactifs Des élèves de sixième année travaillent la résolution de problèmes grâce à la robotique 7 questions auxquelles tout nouvel enseignant devrait pouvoir répondre Articles sur le même sujet Sors ton smartphone de ta poche ! Le monde change… l’université aussi ! L’éducation doit évoluer pour atteindre les objectifs mondiaux de développement

more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Chicago, la smart city open source par Sylvain Arnulf  #ArrayOfThingsGitHub.io

Chicago, la smart city open source par Sylvain Arnulf  #ArrayOfThingsGitHub.io | Sciences et technologies | Scoop.it

https://arrayofthings.github.io/

Des universitaires mettent en place un réseau de capteurs environnementaux dans le centre-ville de Chicago, en partenariat avec la municipalité. Chercheurs, développeurs et citoyens pourront accéder aux données en temps réel et bâtir de nouveaux services.


 La smart city est un enjeu citoyen avant d'être un défi technologique. Les habitants, associations, universitaires et élus locaux doivent se l'approprier avant que les géants comme Google ou Cisco ne le fassent C'est dans cet esprit qu'a été bâti un collectif à Chicago, autour du projet "Array of things". Son objectif : installer des capteurs environnementaux dans les artères de la ville pour alimenter en temps réel une base de données géante, accessible à tous gratuitement. Les premières stations viennent d'être installées. 42 seront posées dans un premier temps ; le projet en prévoit 500 d'ici 2018. Ces bornes, installées sur des lampadaires, disposent de plusieurs capteurs pour mesurer une multitude de paramètres, sur l'environnement (température, humidité, volume sonore, vibration – qui témoigne de l'intensité du trafic automobile), la qualité de l'air, le trafic piéton et automobile. Des équipes travaillent pour ajouter d'autres mesures : eau stagnante, vitesse du vent, précipitations… Toutes ces données pourraient être exploitées pour établir une cartographie intelligente des trajets les plus utilisés selon différents modes de transport, les itinéraires les plus "propres", par exemple, ou bâtir de nouveaux types de services aux habitants.


Un kit pour répliquer l'expérience dans d'autres villes


Les promoteurs d'Array of things insistent sur le fait que ce qui les intéresse, c'est de mesurer l'activité et l'environnement de la ville, pas de surveiller les humains. Le projet s'est doté d'une politique ambitieuse de protection des données personnelles et de garde-fous humains et technologiques. Les habitants sont consultés sur l'emplacement des stations et ils peuvent suggérer des lieux d'implantation. Array of Things va publier l'architecture de ses stations, le code des logiciels utilisés et l'ensemble de ses ressources en open data, pour inciter d'autres villes à se lancer. Une initiat%%ARTICLELIE:350722%%%%ARTICLELIE:350722%%ive salutaire à l'heure où les géants technologiques, comme Alphabet et son Sidewalk labs, veulent mettre le grappin sur les données de la smart city.

more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

 Salon du Logiciel Libre du Québec : « Le Libre au quotidien » 20 septembre à Montréal 

 Salon du Logiciel Libre du Québec : « Le Libre au quotidien » 20 septembre à Montréal  | Sciences et technologies | Scoop.it
Le Salon du Logiciel Libre et des technologies ouvertes du Québec, organisé par l'Association Professionnelle des Entreprises en Logiciels Libres, l’APELL, promouvoit l'utilisation des logiciels libres dans toutes les sphères de notre société en donnant la parole tant à ceux qui « code » qu’à ces utilisateurs. L’usage de logiciel libre ajoute un actif aux avoirs de tous car ce logiciel peut être ajusté selon les besoins qui ne manquent pas d’évoluer. Le Salon du Logiciel Libre du Québec va accueillir pour cette édition 2016, « Le Libre au quotidien », des participants provenant de différents secteurs et de nombreux intervenants de qualités, notamment : Des gestionnaires des gouvernementaux : municipalités, provincial et fédéral, d’ici et d’ailleurs Des entreprises et organisations de différentes tailles dans tous les domaines d’expertise qui touchent de près ou de loin les logiciels libres au sein des technologies de l’information ; Des adeptes du logiciel libre, enseignants, professeurs, étudiants, consultants informatiques, professionnels en TI qui produisent, conçoivent et réalisent des solutions en logiciels libres. Le Salon du Logiciel Libre du Québec (S2LQ) se tiendra le 20 septembre 2016 au Plaza Montréal, 420 Sherbrooke ouest, Montréal, sous le thème « Le Libre au quotidien ». Pour vous inscrire cliquez ICI Le troisième millénaire marque le passage de notre société d’une pratique individualiste à une société où la communication est transversale et surtout collaborative, où la force de notre réseau est porteuse de succès. Évidemment, ces nouvelles pratiques obligent à revoir nos procédures. Les logiciels libres jouent un rôle majeur dans cette révolution et TOUS les secteurs de notre économie sont concernés : industriels, services, administrations publiques, etc. Le monde des affaires numériques et technologiques au Québec a besoin d’acteurs du changement pour permettre une plus grande pénétration des logiciels libres dans les organisations. En particulier dans l’appareil gouvernemental et parapublic qui utilise encore énormément, et à grand frais, des logiciels propriétaires. Les thèmes abordés cette année sont : Libre en Entreprise Libre en Ingénierie Libre en Formation Commanditaires Platine Argent Bronze 1 2 suivant › dernier » tous les commanditaires
more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Jouer à la géographie numérique #Civilization #JeuxSérieux

Jouer à la géographie numérique #Civilization #JeuxSérieux | Sciences et technologies | Scoop.it
Le plus célèbre jeu vidéo de stratégie, « Civilization », va offrir une nouvelle version saluée par la critique et qui ancre géographiquement les pratiques de jeu en ligne. « Civilization » est un jeu de stratégie développé par le studio Firaxis qui permet à ses adeptes de créer et faire évoluer une civilisation, notamment au moyen d’aménagements territoriaux. Sa nouvelle version, annoncée à l’automne prochain, permet d’affiner ses fonctionnalités à travers de nombreux paramètres pour bâtir et faire prospérer son territoire. Basées sur des territoires réels et des faits historiques avérés, les civilisations peuvent être modulées par de multiples facteurs culturels, sociaux, religieux, politiques et des événements plausibles qui y répondent. Cela permet une pensée systémique des sociétés de chaque civilisation. Une vision multiscalaire donc nuancée de ceux-ci est aussi nécessaire : les bâtiments, quartiers, ports, villes, « merveilles » et frontières répondent à des contraintes de terrain, des situations spatiales différentes. Ainsi, une construction de ville nécessite la présence d’un point d’eau, de même qu’on ne peut construire un port qu’à proximité de littoraux et de voies maritimes. Ces stratégies de jeu requièrent donc, sinon du bon sens, une vision géographique claire des enjeux territoriaux. La pratique de ce jeu ou son rappel en classe pour utiliser par analogie ses caractéristiques auprès des élèves constituent ainsi des ressources qui avaient d’ailleurs été signalées comme des ressources numériques. Plus largement, les enseignants peuvent analyser le concept ou la construction de ce jeu avec les lycéens et prolonger cette analyse par une vision de la géographie mondiale du sport électronique. Actualité à exploiter avec : Tous niveaux en géographie Actualités en lien avec : Histoire et jeux vidéo (publié le 30.03.2015) Cartographie des jeux vidéos (publié le 6.11.2014)
more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Blockchain : la fin du Big data ? Par David Teruzzi, consultant Blockchain

Blockchain : la fin du Big data ? Par David Teruzzi, consultant Blockchain | Sciences et technologies | Scoop.it

«

Si la production des données numériques dans le monde a le vent en poupe, 90% de ces données ont été produites dans les deux dernières années, Facebook y est bien pour quelque chose. Le plus grand réseau social en ligne a récolté 300 petabytes de données personnelles depuis son commencement, cent fois la quantité que la Bibliothèque du Congrès a pu collecter en deux siècles ! Dans l’ère du big data, les données sont avidement rassemblées et analysées : les entreprises et les organisations les utilisent pour personnaliser des services, optimiser les processus de prise de décisions, prévoir des tendances futures et plus encore. Aujourd’hui, les données sont un actif de valeur de l’économie mondiale. La préoccupation est croissante, concernant la vie privée des utilisateurs. Des grandes quantités d’informations personnelles parfois sensibles sont stockées sur les serveurs de grands groupes. Les individus ont peu ou pas de contrôle sur ces données et craignent de ne pas maîtriser jusqu’au bout la manière dont elles sont utilisées. Ces dernières années, les médias ont à plusieurs reprises couvert des incidents controversés liés à la vie privée. Parmi les exemples les mieux connus, il y a la surveillance gouvernementale et l’expérience scientifique à grande échelle de Facebook qui a été apparemment conduite sans explicitement informer les participants. Les chercheurs ont développé des techniques diverses visant à sécuriser la vie privée et les données personnelles. L’arrivée du Bitcoin en 2009 et de la blockchain sous jacente a fourni aux chercheurs une plateforme naturellement orientée vers la protection des données. Par exemple, paradoxalement, alors que Facebook possède au nominatif la plus anodine des interventions sur sa plateforme, le Bitcoin se permet de bypasser même la règle NYC (Know Your Customer), un must en droit bancaire et financier. On connaît l’adage : «Lorsqu’un service est gratuit sur le web, le client c’est vous.» Prenons le cas d’une App Mobile quelconque. Elle souffre typiquement de trois failles dans la privacy : propriété des données. Très souvent en acceptant les termes de l’installation, les données deviennent par contrat une propriété de l’application. transparence des données et contrôle de l’utilisation qui en est faite. L’utilisateur perd la trace de ses données. contrôle d’accès détaillé. Au moment de l’installation, l’utilisateur doit accorder un ensemble de permissions à l’appli. On octroie ces permissions indéfiniment et la seule façon de les changer est de désinstaller en bloc l’application. La même application mobile bâtie sur une blockchain aurait la même interface mais une politique d’accès/contrôle des données privées complètement différente. propriété des données. L’appli blockchain peut garantir que les utilisateurs possèdent et contrôlent à 100% leurs données personnelles. Le système peut reconnaître les utilisateurs comme les propriétaires des données et les services comme des invités avec des permissions déléguées. transparence des données et contrôle. Chaque utilisateur voit en toute transparence comment les données sont rassemblées et qui y a accès. contrôle d’accès détaillé. A tout moment l’utilisateur peut changer l’ensemble des permissions et révoquer l’accès aux données précédemment récoltées, même de manière rétroactive. Ceci en dynamique, sans désinstaller l’application. Imaginons maintenant d’avoir une application Facebook-like sur blockchain. Elle nous permettrait : de posséder véritablement nos données de décider quel post, image, link nous voulons exposer dans le domaine public, visible à quiconque de limiter l’accès de nos contenus à certains amis exclusivement de savoir à vie qui a accès à nos données publiques et à quel moment. Et pourtant, si on réfléchit un instant on comprend aisément qu’après tout, la philosophie de la blockchain est bien celle du traçage. Les blockchains changent les règles du jeu : moins de centralisation, moins d’autorité, plus de partages. Il n’y a plus de données sensibles sur des serveurs centralisés mais on a forcément et toujours du traçage. La question est donc : le traçage devient-il plus acceptable si le contrôle de la surveillance s’opère par les surveillés ? Alors que l’on sort à peine d’un débat passionné sur le droit à l’oubli, voici que la blockchain émerge appuyée sur un système qui ne peut fonctionner que dans la mesure où il n’oublie absolument rien. Dans une blockchain, le recueil massif de données s’opère selon une suite logique strictement horodatée, un enchaînement des blocs qui reste indélébile à vie. Pourquoi donc figer à vie des données dans une blockchain serait mieux pour la privacy que de les laisser sur un serveur propriétaire ? Parce que dans une blockchain on peut protéger les données de l’utilisateur moyennant un développement software complexe mais faisable. Dans leur design actuel, les blockchains ne peuvent pas traiter du tout la privacy. A cause de leur nature publique, des données éventuellement privées passeraient en clair par chaque full node de le blockchain, entièrement exposées. En plus, les blockchains ne tolèrent pas de lourds calculs, ce qui réduit les nombre d’implémentations concevables. Malgré ces obstacles, les chercheurs on déjà plusieurs idées sur la manière d’ajouter la privacy au sein d’une blockchain. Ces solutions visent à rendre n’importe quelle app aussi robuste que le Bitcoin. Le bitcoin existe depuis 2009 et en 6 ans, personne n’a jamais pu voler un millième d’euro alors que tout est public. Pour la même raison, il sera un jour impossible de lire un post/commentaire qui aurait été classé comme privé au moment du paramétrage. Il faut mettre ici un bémol : on dit que le bitcoin n’est pas 100% anonyme. En effet, tant qu’on est connecté par exemple à Google avec un compte qui nous identifie, on laisse sans cesse des traces. Google peut lancer un algo de data mining sur notre profil et arriver à déduire notre identité Bitcoin en fonction des aller-retour qu’on fait vers des sites/portefeuilles Bitcoin. Revenons donc à la question de l’article : est-ce que la blockchain a la possibilité de signer la fin du big data ? Rappelons d’abord que dans cet article nous parlons de données nominatives que le big data exploite pour classer les utilisateurs en catégories : clients potentiels, orientation politique, goûts, habitudes… et non pas de données anonymes comme ceux de certains capteurs IoT. La réponse est oui, à condition dès que les chercheurs aient une solution assez stable et que les internautes adhèrent en masse aux prochaines applications blockchain-based. image: http://www.frenchweb.fr/wp-content/uploads/2016/06/Block-Apps-550x377.jpg Block Apps Sachant que les identités sont de toute façon toujours protégées par clé privée, reste à savoir comment on stocke les données de l’utilisateur. Pour des raisons d’efficacité, certaines applications pourraient vouloir éviter la lourdeur du cryptage/décryptage. Il faut distinguer deux cas de figure : les données sont en clair sur des serveurs centralisés et la blockchain garde juste des références. Dans ce cas, la blockchain garantit que les données ne seront jamais nominatives. Toutefois, les propriétaires des applis et des serveurs y auront toujours accès ainsi que, potentiellement, les pirates. Le big data sera donc toujours possible, de manière anonyme. les données sont cryptées, puis stockées, soit sur des serveurs centralisés, soit sur des systèmes comme IPFS, Swarm, Enigma… Dans ce cas, les données sont inatteignables et le big data inconcevable. Dans le deuxième cas, il serait impossible d’accéder au contenu marqué partout comme privé. Tellement impossible que dans le cas de la blockchain c’est plutôt le problème inverse qui pourrait inquiéter : un groupe pédophile ou terroriste qui se cacherait derrière la blockchain serait inaccessible même par les plus hautes autorités de contrôle d’un Etat. La privacy des données dans la blockchain est un point charnière de leur succès. Certes, aujourd’hui le développment pour privatiser les données d’une application style Ethereum est assez complexe (on en sais quelque chose…) mais des solutions clés-en-main vont sans doute arriver. Vous pouvez par exemple jeter un coup d’oeil à ce projet du MIT. Reste ensuite la question de la traçabilité : si dans 30 ans un ordinateur quantique permet de forcer les clés privées aujourd’hui inviolables, il sera possible d’accéder globalement au contenu pour lire rétroactivement l’historique de n’importe quel utilisateur. A propos image: http://www.frenchweb.fr/wp-content/uploads/2016/06/David-Teruzzi.png David TeruzziDavid Teruzzi est consultant blockchain. Il est co-fondateur de Blockchain Conseil et blogeur sur Blockchain Café. Toujours dans la blockchain, il est developpeur affilié du projet Decred, une nouvelle monnaie s'inspirant du Bitcoin. En outre, il est également programmeur expert en mathématiques appliquées. Article initialement publié sur Blockchain Café. Crédit photo: Fotolia, banque d’images, vecteurs et videos libres de droits Read more at http://www.frenchweb.fr/blockchain-la-fin-du-big-data-2/251412#W7k5eDvxSz7k8t3W.99
more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Black Duck launches Centre for Open Source Research and Innovation

Black Duck launches Centre for Open Source Research and Innovation | Sciences et technologies | Scoop.it

Black Duck has announced the launch of its Centre for Open Source Research and Innovation with an aim to increase reliance on open source for application development. The new Centre will be based at Black Duck’s Massachusetts headquarters, but the two new Black Duck research groups in Canada and Europe are likely to play major roles in the application release and development. “Open source is the way today’s applications are developed, and we expect the worldwide adoption will continue to accelerate because of the compelling economic and productivity benefits open source provides,” said Lou Shipley, chief executive officer, Black Duck. “Over the next decade, more cutting-edge research, innovation, information and education — particularly related to open source security — are needed to ensure the open source ecosystem remains vibrant. We will be a leader in that effort.” Europe-based Black Duck Security Research analyses security issues and attack patterns in open source software to offer actionable information on vulnerabilities as well as steps to reduce risk and strategies for using the community-backed solutions effectively. The Vancouver, Canada group, on the other hand, conducts applied research in data mining, machine learning, natural language processing, big data management and software engineering. “Both groups will be sources of valuable research and reports throughout the year. Their work will help us innovate and improve our open source security and management solutions and a great deal of what they do will also be shared for the benefit of the open source community,” Shipley said. Black Duck is aimed to issue periodic Open Source Security Audit (OSSA) reports analysing results of applications audited by the company’s on-demand as part of M&A activities through the new Centre. Additionally, the company is set to enhance its open source repository and database KnowledgeBase and expand its online community Open Hub.

more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Est-ce la mort du site Web? Entrevue avec Sylvain Carle et Mitch Joel

Est-ce la mort du site Web? Entrevue avec Sylvain Carle et Mitch Joel | Sciences et technologies | Scoop.it

Entrevue avec Sylvain Carle, Directeur Général de Founder Fuel Fuel, et Mitch Joel, Président de Mirum Dans l’univers du numérique, Sylvain Carle et Mitch Joel sont deux durs à cuire. Nous avons donc voulu connaître leurs opinions concernant le futur du Web pour ce deuxième numero de Cloud&Co. Bien qu’ils soient d’abord des praticiens du numérique, ils sont aussi d’avides spéculateurs.

Mitch Joel est le président canadien de Mirum, une agence numérique internationale. Il est aussi consultant en marketing auprès d’entreprises telles Google.

Sylvain Carle est directeur général et mentor pour Founder Fuel, un « accélérateur » pour start-ups. Il a été développeur en chef (officiellement : « Senior Developer Evangelist ») chez Twitter. Nous leur avons demandé s’ils croyaient à la mort du site Web. Leurs réponses ont donné lieu à une discussion qui aurait pu être entendue dans un bar du coin ou lors d’une conférence de marketing. C’est une incursion dans le futur qui pose la question : quelle interface s’imposerait et qui la contrôlerait si le Web disparaissait?

Le site Web est-il mort?

Sylvain Carle: Je crois que oui. L’idée d’un projet bâti sur mesure (avant, on construisait tout à la main; j’ai l’impression d’être vieux jeu), plus personne n’a ça en tête. Ça c’est mort, très certainement. Parce que le site Web n’est qu’un des aspects de l’image, aujourd’hui, quelle que soit la marque, la start-up ou la mégacorporation. J’imagine que ça nous amène à la question : qu’est-ce qui remplace le site Web? La présence Web, numérique ou en ligne, c’est bien vivant. Ça continue d’évoluer, infiniment. WordPress est derrière 25 pour cent du Web en entier, ce n’est pas rien. On pourrait dire que le site Web s’apparente maintenant à ce qu’a été le blogue. "Le seul écran qui importe, c’est celui qui est devant nous. Cet écran-là, de plus en plus, c’est celui du portable." - Mitch Joel

Mitch Joel: Je crois que le site Web, simplement parce qu’il est basé sur le Web, est relégué au second plan. Nous savons actuellement que le consommateur moyen utilise en premier la technologie portable et que le PC n’est plus qu’un accessoire. Tout se passe maintenant dans ce que j’appelle le « monde à un écran », un concept qui évoque le fait que le seul écran qui importe, c’est celui qui est devant nous. Cet écran-là, de plus en plus, c’est celui du portable. Quand je tente de définir ce qu’est un site Web, je me pose maintenant cette question : quelle est la représentation numérique d’une marque? Le site Web a d’abord été la « solution globale », l’agrégateur de tous les contenus : peu importe ce qui était publié sur Twitter ou ailleurs, tout était redirigé vers le site Web. Ce n’est plus le cas. Je crois que nous assistons aujourd’hui, avec les applications mobiles notamment, à un remaniement total de l’infrastructure des images de marque, à mesure qu’elles se départissent des sites Web et migrent leurs contenus sur les médias sociaux. Je pense que la messagerie sera au centre de la prochaine évolution, et si on s’attarde à ce qui a déjà changé dans la messagerie, on remarque qu’il y a maintenant des applications à l’intérieur même des applications de messagerie. Par exemple, on peut passer une commande sur Amazon à partir de Snapchat ou de la messagerie Facebook. Tout ça contribue à transformer l’usage qu’on faisait du site Web. Donc, qui a tué le site Web ou, enfin, qui l’a presque achevé? Sylvain: Facebook l’a tué. On sait que les pages d’accueil sont mortes depuis un certain temps. Tout le monde sait ça. Le site Web est-il devenu un handicap? Si nos efforts sont trop centrés sur le site Web, on passe à côté d’autre chose. Autrement dit : si votre site Web n’est pas mort, peut-être qu’il faut le tuer? Mitch: Je ne pense pas qu’il faille aller aussi loin. Je pense qu’on a besoin d’un point d’ancrage. Les affaires se développent ailleurs, mais le site Web demeure dans la boîte à outils. "Si votre site Web n’est pas mort, peut-être qu’il faut le tuer?" - Sylvain Carle Sylvain: Il pourrait devenir le point de départ, par contre. Je veux dire qu’il faut toujours publier le contenu quelque part, et puis on peut l’envoyer ailleurs par la suite. Mitch: Oui, c’est un très bon réceptacle, un fourre-tout pour le contenu qu’on publie à différents endroits. En fait, on est passé d’une trame narrative linéaire (je vois quelque chose, je me rends sur le site) à quelque chose de non linéaire et de non hiérarchique Parlons des start-ups Web. Où devraient-elles se diriger, à supposer qu’elles veuillent être près de la rondelle? Sylvain: Les réseaux prennent de l’ampleur et deviennent des plates-formes de dissémination massives. Quelle est donc la prochaine plate-forme qui émergera? Où les start-ups pourront-elles s’investir? La messagerie semble avoir la cote en ce moment, mais ce n’est peut-être pas le meilleur point de départ. Quelle est la prochaine étape? J’ai vu des gens exploiter le vocal. Ou alors c’est l’opposé complètement : la réalité virtuelle [RV]. Mitch: C’est pour cela aussi que je pense que le site Web est mort, fondamentalement. La RV permet de faire l’expérience des choses plutôt que de se rendre sur un site Web ou sur une application. Ça va nous sembler bien ordinaire, le site Web ou l’application, quand on fera l’expérience de la RV. Regardez ce qui s’est produit dans les cinq dernières années avec Instagram et Snapchat. Si on va sur leurs sites Web, on voit qu’ils ne servent qu’à télécharger les applications. Le site Web n’est même plus un site Web, tout se trouve complètement ailleurs. Donc, la première raison pour laquelle je pense que le site Web est en partie mort, bien qu’il soit nécessaire, c’est que les plates-formes pour appareils portables ont pris sa place, et puis la RV est bien près de faire la même chose. Siri (ou une autre voix) deviendra-t-elle l’interface du Web? Sylvain: Il n’y aura qu’une seule interface, et je pense que ça sera la voix. Ce qui est intéressant, c’est que l’ordinateur, le PC sur le bureau, est en train de sombrer dans la désuétude. Au lieu, on a un écran quelque part et on filme des vidéos à partir de l’iPad pour les projeter sur l’écran. L’interaction, l’expérience utilisateur, doit cadrer avec l’appareil utilisé. Taper sur un écran, surtout lorsqu’il est loin de soi, ne fonctionne pas vraiment. La voix est donc plus naturelle; ça fonctionne très bien dans un contexte personnalisé. "Je pense vraiment que la réalité virtuelle et l’affichage tête haute vont tout tuer." - Mitch Joel "La réalité virtuelle telle qu’on la connaît est vouée à l’échec." - Sylvain Carle Mitch: J’ai vu beaucoup de versions de voix très avancées, comme Google Now, qui reconnaissent le timbre et le ton de la voix. Nous, en tant qu’êtres humains, avons été très tactiles dans notre manière de contrôler et de manipuler l’information. Et si on pense au futur et à ce que la technologie peut faire, le tactile semble être une manière très limitée de faire ça. La voix paraît beaucoup plus logique. Sylvain: C’est le direct versus l’indirect. Mitch: Je crois que les yeux aussi auront un gros rôle à jouer là-dedans; je pense qu’ils feront Qu’arrivera-t-il à nos autres appareils?avancer l’expérience. Qu’arrivera-t-il à nos autres appareils? Mitch: Je ne sais pas ce que tu en penses, Sylvain, mais je pense vraiment que la réalité virtuelle et l’affichage tête haute vont tout tuer; il n’y aura plus d’ordinateurs ou d’appareils mobiles. Sylvain: La réalité virtuelle telle qu’on la connaît est vouée à l’échec. Elle ne fait que passer, parce que c’est impossible qu’on accepte de se couper de tout ce qui est autour de nous, en tant qu’êtres humains. Nos corps ne font pas partie de l’expérience en RV. Ce n’est que dans la tête. Je crois qu’après la RV, on aura la réalité augmentée [RA] en plus de la RV. À mesure que la technologie évoluera, la RV deviendra un mélange de virtuel et de réel. Et c’est ce qu’on est en train de faire sur le Web. Depuis un certain temps, tout ce qui est réel est mis en ligne, comme dans des répertoires. Actuellement, on ajoute les réseaux dans tout – à travers nos appareils intelligents notamment – et on verra la même chose se produire avec la RV : on enverra tout dans la RV et après, c’est elle qu’on projettera partout. Mitch: La réalité augmentée, combinée à la vision par ordinateur, qui fait en sorte que l’ordinateur peut reconnaître des processus, prendre note de tout ce qui se passe autour de soi… Rendu là, à quoi peut bien servir un site Web? Au lieu de se rendre quelque part pour la trouver, l’information se rend maintenant jusqu’à nous à travers tous nos appareils; le filtrage, le traitement et la sélection ne vont que s’améliorer avec l’intelligence artificielle et l’apprentissage automatique. /// Pour lire notre entrevue avec Mitch et Sylvain et voir s’ils pensent que l’intelligence artificielle finira par nous tuer, commandez votre copie du Cloud&Co No. 2. Accédez à encore plus de contenu exclusif tiré du magazine en vous inscrivant à notre infolettre ou en nous suivant sur nos plateformes sociales.

more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Wikifab : Tutoriels pour tout fabriquer, écrits par tous

Wikifab : Tutoriels pour tout fabriquer, écrits par tous | Sciences et technologies | Scoop.it
Pas-à-pas gratuits et open-source que tout le monde peut créer et améliorer.
more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Develop Android Apps Using MIT App Inventor

Develop Android Apps Using MIT App Inventor | Sciences et technologies | Scoop.it

There is a secret inventor inside each of us. Get your creative juices flowing and go ahead and develop an Android app or two. It is as easy as you think it is. Follow the detailed instructions given in this article, and you will have an Android app up and running in next to no time. Imagine that you have come up with an idea for an app to address your own requirements, but due to lack of knowledge and information, don’t know where to begin. You could contact an Android developer, who would charge you for his services, and you would also risk having your idea being copied or stolen. You may also feel that you can’t develop the app yourself as you do not have the required programming and coding skills. But that’s not true. Let me tell you that you can develop Android apps on your own without any programming and coding; and in this article, I am going to let you into the secret of how to go about doing that.

 An introduction to App Inventor

App Inventor is a tool that will convert your idea into a working application without the need for any prior coding or programming skills. App Inventor is the open source utility developed by Google in 2010 and, currently, it is being maintained by the Massachusetts Institute of Technology (MIT). It allows absolute beginners in computer science to develop Android applications. It provides you with a graphical user interface with all the necessary components required to build Android apps. You just need to drag and drop the components in the block editor. Each block is an independent action, which you need to arrange in a logical sequence in order to result in some action.

App Inventor features

App Inventor is a feature-rich open source Android app development tool. Here are its features.

1. Open source: Being open source, the tool is free for everyone and you don’t need to purchase anything. Open source software also gives you the freedom to customise it as per your own requirements. 2. Browser based: App Inventor runs on your browser; hence, you don’t need to install anything onto your computer. You just need to log in to your account using your email and password credentials.

3. Stored on the cloud: All your app related projects are stored on Google Cloud; therefore, you need not keep anything on your laptop or computer. Being browser based, it allows you to log in to your account from any device and all your work is in sync with the cloud database.

4. Real-time testing: App Inventor provides a standalone emulator that enables you to view the behaviour of your apps on a virtual machine. Complete your project and see it running on the emulator in real-time.

5. No coding required: As mentioned earlier, it is a tool with a graphical user interface, with all the built-in component blocks and logical blocks. You need to assemble multiple blocks together to result in some behavioural action.

6. Huge developer community: You will meet like-minded developers from across the world. You can post your queries regarding certain topics and these will be answered quickly. The community is very supportive and knowledged

App Inventor terms of use System requirements Given below are the system requirements to run App Inventor from your computer or laptop: 1. A valid Google account, as you need to log in using your credentials. 2. A working Internet connection, as you need to log in to the cloud-based browser that’s compatible with App Inventor; hence, a working Internet connection is a must. 3. App Inventor is compatible with Google Chrome 29+, Safari 5+ and Firefox 23+. 4. An Android phone to test the final, developed application. Beginning with App Inventor Hope you have everything to begin your journey of Android app development with App Inventor. Follow the steps below to make your first project. 1. Open your Google Chrome/Safari/Firefox browser and open the Google home page. 2. Using the search box, search for App Inventor. 3. Choose the very first link. It will redirect you to the App Inventor project’s main page. This page contains all the resources and tutorials related to App Inventor. We will explore it later. For now, click on the Create button on the top right corner. 4. The next page will ask for your Google account credentials. Enter your user name and password that you use for your Gmail application. 5. Click on the Sign in button, and you will successfully reach the App Inventor app development page. If the page asks you to confirm your approval of certain usage or policy terms, agree with them all. It is all safe and is mandatory if you want to move ahead. 6. If all is done correctly, you should see a page similar to what’s shown in Figure 5. 7. Congratulations! You have successfully set up all the necessary things and can now develop your first application. Figure 5 Figure 5: App Inventor home page Figure 6 Figure 6: Start New Project button Figure 7 Figure 7: Naming the project Your first Android application So far, you know what App Inventor is and how to run it on your computer. Now, I’ll tell you how to make your very first Android application and, once again, I am saying it is pretty simple. You will not require any programming or coding knowledge for this. Log in to your App Inventor account using the steps mentioned above and you will land on the My Projects page. 1. Since you have not developed any projects so far, it will not display any list under My Projects. We will begin our first project, by clicking on the Start New Project button. 2. Let’s give a suitable name to the project. Since it is our first project together, let’s call it First_Project. Please keep in mind that if your project name has more than one word, then you should use the underscore (_) character to join them as App Inventor doesn’t allow using spaces. Click on the OK button to proceed. 3. You will now see something similar to the image shown in Figure 8. This is the main page for the development. Here, we will add various components to our project and then add the respective functionality. Don’t worry, I will brief you about the various things you will see on the page. The page you are currently viewing is called the designer because we design the app here. Although we have named our application/project ‘First_Project’, nothing has been said about what it is supposed to do. We must always have a clear idea of what the app will do, so let’s list that out. Objective We want to make an app that will work as a theft alarm. The phone will make the sound of a siren whenever it is moved. So let’s think about what the app should look like. Figure 8 Figure 8: The App Inventor designer Figure 9 Figure 9: Button properties Figure 10 Figure 10: Uploading the image file GUI requirements For now, there is no special GUI requirement, but rather than keeping the screen blank, it is better to show an image on the phone screen that signifies ‘danger’. We need to upload an image and a sound that we want to play. We will require the following components for this project. Steps to be taken to create the application 1. Drag and drop the button onto the viewer. 2. Now select the Sound under Media and drop it into the viewer. You will see it placed under non-visible components. 3. Now, from the Sensor category, choose Accelerometer Sensor and drop it on the viewer. Similarly, it will also be listed under non-visible components. 4. Next, select Button1 in the components and look for its properties in the Property pane. 5. You will find Text property with some pre-written text for Button1. You need to erase all this text and make it empty. 6. Now, we want a threatening or ‘danger’ image on the screen; so why not add it to the button? 7. Under Button properties, you will see Image property. Select it, and you will be asked to upload any photo from your computer. Browse the location, and upload the photo to the server. It will also be seen under the media tag on the same page. 8. In the same way, we need to upload the sound file that we want to play. 9. Now select the Sound1 component and under its properties, set its source to the sound file you have uploaded. 10. When you are done with this, your viewer should look something like what’s shown in Figure 11. I have used a different image, apart from which, everything else ought to be the same. Adding behaviour to the blocks Now, let’s head towards the block editor to define the behaviour, and discuss the actual functionality that we are expecting from our application. First, when the screen is touched, it should play a sound, i.e., the button we have used should sense this touch. Second, when the phone is moved from its place, it should play a sound, i.e., the accelerometer sensor should sense this movement. So let’s move on and add these two behaviours, using the block editor. There is a button available right above the Properties pane to switch between the designer and block editor. Block editor blocks I have already prepared the blocks for you. All you need to do is drag the relevant blocks from the left side palette and drop them on the viewer. Arrange the blocks exactly the way you see in the image. I will explain what each does and how it is called. The first block is for the accelerometer. We have added the accelerometer sensor to our project to sense any movement in the physical position of the device. So as soon as the accelerometer senses the movement, the following two events will occur: It will call the sound component to play the sound. The sound will be what has been set as a source in the designer. It will vibrate the device for 500 milliseconds. The amount of time you want the device to be vibrated can be modified since it is an editable field. The second block is to trigger the events when someone touches the screen. We have added a button whose image property is the image you are seeing on your screen. As soon as it feels the touch, it will play the sound and vibrate too. Now you are done with the block editor. Next, let’s move to download and install the app on your phone to check how it is working. Figure 11 Figure 11: Application GUI Figure 12 Figure 12: Block editor blocks Packaging and testing To test the app, you need to get it on your phone. First, you have to download the application to your computer and then move it to your phone via Bluetooth or USB cable. I’ll tell you how to download it. On the top row, click on the Build button. It will show you the options to download the APK to your computer. The progress of the download can be viewed and after being successfully completed, the application will be placed in the download folder of your directory or the preferred location you have set for your downloading. Now, you need to get this APK file to your mobile phone, either via Bluetooth or via USB cable. Once you have placed the APK file on your SD card, you need to install it. Follow the on-screen instructions to install it. You might get some notification or warning saying ‘Install from untrusted source’. Allow this from the settings and after a successful installation, you will see the icon of your application in the menu of your mobile. Here, you will see the default icon that can be changed, and we will tell you how to do so as we move ahead in this course. I hope your application is working exactly as per the requirements you have set. Now, depending upon your usage requirements you can change various things like the image, sound and behaviour too.

more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Root Me : Hacking and Information Security learning platform

Root Me : Hacking and Information Security learning platform | Sciences et technologies | Scoop.it
Root Me is a platform for everyone to test and improve knowledge in computer security and hacking.
more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Open Source pour l’internet des objets par Pierre Ficheux, formateur à L'Open Source School

Open Source pour l’internet des objets par Pierre Ficheux, formateur à L'Open Source School | Sciences et technologies | Scoop.it

Découvrez le nouveau livret bleu IoT open source !

L’ Internet des Objets (ou IoT – Internet of Things en anglais) est à la fois une évolution logique de l’Internet tout court, et une révolution annoncée de tous les pans de l’économie. On en sent déjà les prémisses dans plusieurs domaines, comme les transports avec les plateformes de covoiturage qui ont été rendues possibles par l’ubiquité des téléphones portables intel - ligents. Ces enjeux économiques et stratégiques donnent une impor - tance particulière aux nombreux défis technologiques qui se posent dans ce domaine. Le Groupe thématique Logiciel Libre (GTLL) de Systematic s’est emparé du sujet dès 2013, en ins - crivant dans sa feuille de route ce que nous avons nommé l’« After-PC », dont l’IoT est un des aspects les plus disruptifs. Nous y avions identifié plusieurs thématiques technologiques clés en lien direct avec l’IoT. • Tout d’abord les systèmes d’exploitation, middlewares et outils de développement pour objets communicants, dans le prolongement des logiciels dédiés à l’embarqué, mais aussi des outils issus du monde de l’Internet et du Web. • Les plates-formes de développement de type open hard - ware telles qu’Arduino, Beagleboard ou équivalents, ainsi que les outils de prototypage rapide d’objets physiques (CNC, imprimantes 3D...) qui permettent aux entrepreneurs, avec l’aide d’outils de développement logiciel open source dont le coût d’utilisation est également minime, de réaliser des démonstrateurs de leurs idées avec des moyens très modestes. • Les vastes systèmes distribués, qui mettent en œuvre des terminaux (plus ou moins intelligents et connectés de manière plus ou moins intermittente), des routeurs (eux aussi plus ou moins intelligents) et des plates-formes de stockage et de traitement ; ces plates-formes IoT doivent répondre à des défis de volumes de données et de résilience inouïs dans le cadre des systèmes d’information d’entreprise traditionnels. Plus précisément, toutes les technologies sus - ceptibles de gérer les flux de données engendrés ou captu - rés par un nombre sans cesse croissant de terminaux – de quelques milliers à plusieurs milliards : on parle bien de big data et de cloud computing. • Les nouveaux protocoles qui apparaissent, ou évoluent comme HTTP pour s’adapter aux besoins spécifiques de l’IoT, et leur implémentation sous forme de briques open source. Plus généralement, l’interopérabilité des différentes


IV OPEN SOURCE POUR L’IOT VI VII LES LIVRETS BLEUS du Logiciel Libre solutions – matérielles et logicielles – mises sur le marché par des acteurs aux visées parfois monopolistes nous semble un point d’attention stratégique majeur, sur lequel le monde du logiciel libre a déjà su se battre pour faire triompher la notion de standard ouvert. • L’enjeu de la sécurité nous semble enfin majeur, et encore très mal pris en compte à l’heure actuelle. Que l’on parle d’objets communicants liés à la vie intime (brosse à dents connectée, horloges intelligentes, balances connectées, etc.) ou d’IoT industriel – avec le détournement par des mafias d’objets communicants non sécurisés, il est difficile de faire l’impasse sur l’investissement nécessaire à la sécurisation des protocoles et des logiciels. L’IoT en tant que marché est en pleine structuration. On y verra une fois de plus combien le paradigme du logiciel libre et des standards ouverts est incontournable dès lors qu’on s’approche de ce qui est appelé à devenir infrastructurel. Le logiciel libre s’est imposé dans le monde de la recherche infor - matique, de l’Internet devenu standard de fait, du Web comme infrastructure de communication. Il s’imposera aussi dans le domaine de l’IoT. Fort des compétences historiques de l’écosystème du logi - ciel libre en général, et en Île-de-France en particulier, dans les domaines précités (outils de développement, OS libres embarqués, cloud, middleware, big data, sécurité, sûreté de fonctionnement...), les acteurs du GTLL sont particulièrement bien positionnés pour répondre aux demandes des industriels du secteurs, et notamment dans les différents marchés que touchent l’ensemble des membres de Systematic : Systèmes d’Information pour les entreprises et les administrations, Santé, Usine du Futur, Gestion intelligente de l’Energie, Télé - coms, Transports et mobilité, Ville numérique... Le livret bleu de Pierre Ficheux, auquel ont contribué de nom - breux membres du GTLL, est donc l’occasion de faire la syn - thèse des principaux défis, mais aussi des solutions actuelles et des tendances à venir de ce marché, et d’aider tous les décideurs technologiques des industries en aval de l’écosys - tème des créateurs d’outils numériques ouverts à faire des choix avisés dans ce domaine. Stéfane Fermigier président du Groupe thématique Logiciel Libre OPEN SOURCE POUR L’IOT 9 LES LIVRETS BLEUS du Logiciel Libre certain Andy Rubin de la société Danger Inc. participe à la création d’un téléphone mobile nommé « Hiptop » capable de se connecter à Internet et d’utiliser un jeune moteur de recherche nommé Google. Les technologies mobiles d’accès à Internet étant encore limités à l’époque, le produit n’a hélas aucun avenir commercial sinon être remarqué par les deux fondateurs de Google. Remercié, Andy crée la société Android Inc. en 2004 et tout le monde connaît la suite ; à ce jour la grande majorité des terriens utilisent le principal (et seul ?) objet connecté grand public animé par le fameux système Android, lui-même basé sur le noyau Linux et en grande partie « open source » si l’on considère le projet AOSP – Android Open Source Project – four - nissant les sources du système (mais pas les pilotes proprié - taires !). Au niveau industriel on voit clairement les solutions propriétaires M2M ( Machine-to-machine ), qui sont une branche dédiée de l’IoT, migrer vers des solutions plus ouvertes avec l’adoption de standards de type Ethernet comme AFDX (Avio - nic Full DupleX) EtherNet/IP, EtherCAT ou openPOWERLINK, dont les sources sont disponibles [11]. Dire que le succès du smartphone est lié à l’utilisation du logiciel libre pourrait paraître un raccourci militant facile mais nous (GTLL) justifions notre opinion. Tout comme nous considérons que le succès de l’Internet est largement lié à l’utilisation de standards (les fameux RFC ou « Request For Comments » qui doivent, pour devenir des normes Internet « présenter plusieurs implantations interopérables » selon l’IETF), T out comme l’Internet a bouleversé notre quotidien au siècle dernier, la révolution de l’intégration d’objets phy - siques dans le réseau des réseaux est en marche. Et il n’est plus de nos jours un média qui n’évoque l’Internet des objets (IoT). On peut raisonnablement se demander s’il ne s’agit pas, plus que d’une révolution, tout simplement de la réapparition sur le devant de la scène d’un ensemble de technologies autrefois ignorées du grand public. En 1995, le chercheur français Christian Huitéma évoque dans son ouvrage Et Dieu créa l’Internet [1] la possibilité de connecter à Internet des objets physiques. « Il y a déjà des microprocesseurs, en fait de tout petits ordina - teurs dans bien d’autres endroits [...]. D’ici quelques années, le développement et les progrès de l’électronique aidant, ces microprocesseurs deviendront sans doute de vrais ordinateurs élaborés et il sera tout à fait raisonnable de les connecter à Internet » Pour le plus grand nombre, cette opinion très avant-gardiste était passée totalement inaperçue car en 1995, connecter entre eux ne serait-ce que de vrais ordinateurs n’était pas sans dif - ficulté. Cependant, quelques années plus tard (en 2002), un Avant-propos


8 OPEN SOURCE POUR L’IOT 10 11 LES LIVRETS BLEUS du Logiciel Libre l’objet connecté (matériel, logiciel, système d’exploitation), que des protocoles réseau, des solutions de traitement de données et services à l’utilisateur final. Enfin le troisième et dernier chapitre fera un point sur les modèles d’affaires envisageables, toujours dans l’esprit du logiciel et matériel libre. il nous paraît évident que l’enfermement de l’IoT dans une logique propriétaire serait un frein qui pourrait remettre en cause les prédictions mirobolantes des analystes (50 milliards d’objets connectés en 2020). Lors d’une conférence récente autour de l’IoT dans l’industrie, le représentant d’un acteur majeur de l’industrie déclara « qu’un standard ne disposant pas d’implémentation libre ne pouvait être un vrai standard » [2]. Comme il ne viendrait pas à l’idée aujourd’hui de ne pas utiliser – sur l’Internet actuel – TCP/UDP/IP et ce quelle que soit la plate-forme, il n’est pas envisageable de s’affranchir pour l’IoT de standards comme CoAP, MQTT, 6LoWPAN, etc. Ce livret ne saurait être un catalogue exhaustif des solutions disponibles pour l’IoT (il existe déjà plusieurs publications de ce type). Nous décrirons plutôt comment le développement d’un réel marché de l’IoT ne peut que s’accompagner de l’utilisation de solutions libres tant au niveau du traitement des données, des protocoles de communications, des outils de développe - ment, des systèmes embarqués voire du matériel. Pour cela nous nous baserons sur de nombreux exemples de compo - sants d’ores et déjà disponibles dans chacune des catégories. Bien entendu il n’est pas question de faire preuve d’intégrisme du libre et il est des domaines ou les solutions libres seront encore à ce jour inexistantes ou pas assez éprouvées. Dans un premier chapitre nous verrons pourquoi l’adoption de solutions libres est une nécessité pour l’IoT. (...)

more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Quelqu'un se prépare à détruire Internet par Xavier de La Porte #BruceSchneier #Cybersécurité

Quelqu'un se prépare à détruire Internet par Xavier de La Porte #BruceSchneier #Cybersécurité | Sciences et technologies | Scoop.it

Le spécialiste de la cybersécurité Bruce Schneier a posté un article alarmiste sur son blog, des menaces pèseraient sur les structures de l'internet. Illustration d'une explosion Illustration d'une explosion•  C’est très sérieux. C’est LE grand expert de la cybersécurité Bruce Schneier qui l’a écrit sur son blog hier “quelqu’un est en train d’apprendre à détruire Internet” ce sont ses mots. Quand Bruce Schneier dit quelque chose comme ça, il faut mieux y prêter attention…. Schneier explique que depuis un ou deux ans, les entreprises critiques de l’internet, subissent des attaques précises, calibrées, dont le but semble être de tester leurs défenses, et d’évaluer les moyens nécessaires pour les mettre à bas. C’est le cas par exemple de Verisign, dont le rapport trimestriel de ce type d’attaques. Verisgn, c’est l’entreprise américaine qui gère notamment les noms de domaine en .com et .net si Verisign tombe, c’est tout un pan de l’Internet mondial qui disparaît. Qu’est-ce que ces attaques ont de particulier ? Schnieier l’explique très bien. Les attaques les plus courantes sur Internet, sont ce qu’on appelle les attaques en déni de service (en Ddos). En gros, il s’agit d’empêcher les usagers de se rendre sur le site visé. Pour ça, même s’il y a des subtilités, le moyen est toujours le même : adresser au site tellement de requêtes qu’il sature et devient inaccessible, c’est ensevelir le site sous les données. Les attaques en déni de service sont vieilles comme Internet, les hackers y recourent pour faire tomber les sites qu’ils n’aiment pas, les cybercriminels pour obtenir des rançons (car on peut prendre un site en otage). Il y a toute une industrie de la défense contre les attaques en déni de service, mais, à la base, ça revient toujours à une question de bande passante (c’est-à-dire de débit, pour faire une analogie avec la plomberie). Si l’attaquant en a plus que le défenseur, il gagne. Depuis quelques mois donc, les entreprises critiques de l’internet subissent ce genre d’attaques en déni de service, mais elles ont un profil particulier. Elles portent sur un spectre plus large que d’habitude, et elles durent plus longtemps. Elles sont plus sophistiquées aussi. Mais surtout, elles donnent l’impression de tester des choses. Par exemple, une semaine, une attaque va commencer à un certain niveau, monter en grade, puis s’arrêter. La semaine suivante, elle va reprendre à ce niveau, puis monter encore. Comme si elle cherchait l’exact point de rupture. Et puis ces attaques semblent configurées pour voir les contours des défenses. A chaque fois, elles utilisent différents points d’entrée en même temps, ce qui est rare, obligeant les entreprises à mobiliser l’ensemble de leurs capacités de défense; à montrer tout ce qu’elles ont à disposition, ce qui n’est jamais bon. Tout converge donc vers le constat que quelqu’un est bien en train de tester les défenses des entreprises les plus critiques de l’Internet mondial. Mais qui ? Schneier ne croit pas à un criminel, un activiste ou chercheur. Ce genre de méthode passant par le test des infrastructures centrales, ça ressemble beaucoup plus selon lui à un acte d’espionnage ou de renseignement. Et puis la puissance et l’échelle de temps sur laquelle s’étendent ces attaques désignent un Etat. Comme si le cybercommandement d’une armée était en train de calibrer ses armes en cas de cyberguerre. Ca rappelle à Schneier quand, pendant la guerre froide, les Américains envoyaient dans le ciel soviétique des avions de très haute altitude pour que la défense anti-aérienne soviétique se mette en alarme, et pouvoir donc la cartographier. Que faire ? Rien, dit Schneier. On ne sait pas d’où ça vient. Les données qu’il a en sa possession le ferait pencher pour la Chine, et il n’est pas le seul à le penser. Mais ce type d’attaque permet de masquer le pays d’origine. La NSA, explique-t-il, qui exerce sur la colonne vertébrale de l’Internet (pour traduire “backbone”) la surveillance la plus approfondie, doit avoir une idée plus précise, mais à moins que les Etats-Unis ne veuillent déclencher une crise diplomatique, nous n’en saurons rien. Ainsi commence ce John Le Carré au pays des gigabits.

more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Créer un jeu vidéo : les étapes à suivre

Créer un jeu vidéo : les étapes à suivre | Sciences et technologies | Scoop.it

La news publiée par Joanne en début de mois m’a beaucoup fait réfléchir. Après tout, Lost Soul Aside est un jeu vidéo réalisé par une seule et même personne et je trouve cela assez fou. Aussi, je me suis dit qu’un dossier mensuel un petit peu différent ne serait pas une si mauvaise idée. On parle souvent des jeux vidéo comme d’un résultat, on se demande ce qu’ils valent, on se questionne au sujet de l’expérience utilisateur (ou UX), mais notre réflexion reste bloquée à mi-chemin. Et si nous regardions plutôt comment cela se passe de l’autre côté du rideau ? Vous avez une idée de jeu ? Vous débutez en programmation et souhaitez monter votre propre projet seul ou en équipe ? Alors il se peut que ce dossier mensuel vous plaise. Il sera, en tout cas, un très bon point de départ pour vous. Dans ce gros article, que vous devez considérer comme une sorte de guide ou de tutoriel, je compile tout un tas d’informations qui vous permettront de prendre, je l’espère, les bonnes décisions. Je remercie par avance tous ceux qui m’ont aidé à créer ce dossier car mes connaissances techniques sur la conception d’un jeu vidéo étaient à la base très limitées.


Un jeu vidéo, qu’est-ce que c’est au juste ?


Cela n’est plus une surprise. Les jeux vidéo sont de nos jours des acteurs majeurs dans le monde de l’informatique. Au début, tout a commencé par des ordinateurs, puisque ce sont ces terminaux capables d’émettre des calculs en un temps record qui ont accueilli les toutes premières applications dans les années 1940. Désormais, le marché du jeu vidéo s’étend jusqu’aux consoles et smartphones et il dépasse même celui du grand écran. Mais avant d’entrer dans le vif du sujet, il me semble indispensable de définir ce qu’est un jeu vidéo. Le savez-vous vous-même ? Des écoles apprennent aux enfants à créer des jeux vidéo Aujourd’hui, on apprend même aux enfants à créer des jeux. Un jeu vidéo, on dira pour faire simple que c’est une oeuvre rassemblant plusieurs domaines de compétences : la création d’une idée générale tout d’abord, la matérialisation de cette idée via ce que l’on appelle la programmation, puis, parallèlement à tout cela, il y a aussi la réalisation des composants visuels du jeu et la conception des sons. Toutes ces disciplines sont sectionnées en corps de métier.


Le rôle du programmeur


Le programmeur est celui qui gère tout ce qui touche à l’intelligence artificielle (IA), à la gestion des ennemis mais aussi aux éléments neutres. Il prend en charge le moteur, lequel permet l’instrumentation des différents éléments du jeu ainsi que les modules d’affichage des images, qu’elles soient en 2D ou 3D. Parmi ses autres compétences : la définition des règles spécifiques du jeu, l’implantation de la musique, la gestion du réseau dans le cas de jeux multijoueurs, la création de l’interface utilisateur, l’édition de cartes etc. Comme vous pouvez le constater, le programmeur est un maillon essentiel.


Le rôle du game designer

Tantôt scénariste dans la mesure où il conçoit l’histoire et met en place le cadre narratif du jeu, tantôt ingénieur de gameplay car c’est aussi lui qui crée les règles d’ensemble du soft, il peut également agir en tant que level designer, c’est-à-dire qu’il créera les niveaux et établira la difficulté du jeu. Parmi ses autres compétences : la création des personnages et des liens qui les gouvernent, l’emmêlement de leurs histoires respectives, la rédaction des dialogues du jeu et éventuellement de leur traduction en langue étrangère. Il peut aussi faire figure de directeur artistique.


Le rôle du graphiste


Le graphiste fait office d’animateur dans le processus de création d’un jeu vidéo. Cet artiste est celui qui crée les effets visuels mais aussi les textures des personnages, objets et décors. Il est, en plus de cela, responsable de la modélisation de chaque élément visuel apparaissant à l’écran. Parmi ses autres compétences : le graphiste peut également être monteur vidéo, réaliser les cinématiques et bandes annonces du jeu, prendre en charge les effets de lumière. Son rôle est somme toute très important. Le graphiste peut aussi occuper des activités complémentaires.


Le rôle de l’ingénieur son

Comme son nom l’indique, c’est celui qui définit l’univers sonore. Il crée les différents effets et musiques et tentent de les calibrer équitablement afin qu’ils s’harmonisent un maximum avec les images diffusées à l’écran. Il définit également les voix des personnages et entreprend leur sélection. Parmi ses autres compétences : le musicien peut également être testeur de son et éditer les pistes audio afin de neutraliser tout bruit parasite. Il peut aussi être amené à enregistrer des sons en studio. Ce que vous devez surtout retenir, c’est que créer un jeu vidéo, c’est une histoire de passion. Cela requiert beaucoup de temps et d’investissement. Vous espérez faire aussi bien qu’Uncharted 4 ? C’est peine perdue, une centaine d’individus expérimentés a travaillé sur ce projet. Par contre, vous pouvez tout à fait réaliser un jeu du niveau de Wander, qui fut il est vrai un flop monumental, mais qui vit le jour grâce à seulement trois personnes dans un tout petit salon situé à Melbourne, en Australie. Sachez d’ailleurs que d’excellents jeux vidéo comme Minecraft ou encore The Binding of Isaac ont été conçus par une poignée de passionnés, ce qui rend tout de suite très admiratif.


Créer un jeu vidéo : peut-on vraiment y arriver ?


Je connais dans mon entourage des gens qui y sont parvenus. Cela est possible, mais encore faut-il avoir une motivation suffisante, et surtout beaucoup de patience. Il faut également avoir une bonne base sur laquelle s’appuyer, comme cet article par exemple. La clé du succès est de ne pas trop éparpiller son énergie, de prendre le temps de se poser, de bâtir son projet de manière méthodique. Aussi est-il indispensable de calibrer ses idées et de faire une étude de faisabilité. Dans cette étude, vous résumerez brièvement ce que vous pensez avoir le pouvoir de faire, et ce que vous ne pouvez tout simplement pas faire. Cette étude, c’est une façon d’être honnête envers soi-même.


Créer un jeu vidéo tout seul


Cela est laborieux mais pas impossible pour autant. Tant que vous êtes organisé et que vous savez comment planifier votre projet, vous pouvez aller jusqu’au bout. Mais il se peut que vous deviez revoir vos ambitions à la baisse. Vous souhaitez concevoir un MMORPG comme World of Warcraft ? Trop compliqué, trop ambitieux, trop chronophage ! Seul, il est préférable que vous conceviez un jeu simple. D’ailleurs, la meilleure façon d’y parvenir, c’est de d’ores-et-déjà vous entraîner à réaliser de petits jeux, des jeux « test ». Cela vous mettra face à une certaine difficulté, difficulté que vous devrez tôt ou tard appréhender pour mener votre projet à bien. Tout-seul-on-va-plus-vite-ensemble-on-va-plus-loin Si vous débutez dans la programmation, commencez donc par des jeux vidéo inspirés de jeux de société. La Bataille Navale, Puissance 4, Mastermind sont de bons exemples pour commencer. Cela vous apprendra les rudiments du langage informatique, discipline que vous explorerez davantage à force de peaufiner votre jeu en y rajoutant progressivement une interface graphique, des effets en 3D, des éléments de gameplay, un système de score etc. Soyez certain qu’avec des idées originales, on peut véritablement créer un jeu convaincant et synonyme de qualité.


Créer un jeu vidéo en équipe


Quand on travaille en équipe, il y a irrémédiablement des conflits à gérer. Cela demande donc plus de préparation. Dans tous les cas, il faudra un chef de projet, une personne qui prendra les décisions au nom de tous mais il faut savoir que lorsqu’on développe un jeu durant son temps libre, cela peut vite devenir compliqué, décourageant et difficile. Coopération et communication seront d’ailleurs deux choses cruciales car les motivations de chacun peuvent être différentes. Il vous faudra probablement avoir recours à des outils pour remobiliser vos troupes et les motiver !


Quelle option choisir pour créer son jeu ?


Créer un jeu vidéo grâce au modding Sur des jeux comme GTA V, les mods sont de plus en plus nombreux. Il existe quatre options majeures pour créer votre jeu vidéo. Certaines demandent de véritables compétences en programmation, d’autres très peu. N’étant pas spécialiste du sujet, je ne vous les présenterai que brièvement et mettrai l’accent sur celles qui sont les plus intéressantes à mon goût.


Le modding


Qui n’a jamais entendu parler du modding ? Ce terme, qui fait référence au processus de modification d’un jeu, est très courant chez les PCistes. Certains développeurs offrent des outils pour créer ou modifier le contenu d’un jeu, l’objectif étant d’offrir une expérience plus complète à l’utilisateur. Les éditeurs de jeux Skyrim, Starcraft, ces jeux-là sont tous assortis avec un éditeur. Très complet, il permet de concevoir des cartes inédites et même de créer de toutes nouvelles règles. Pour tirer profit de ces outils, les développeurs mettent à la disposition des programmeurs en herbe tout un tas de documents afin de les aider à donner vie à leurs idées. L’avantage des éditeurs de jeux est qu’ils demandent très peu de connaissances techniques : le but est de permettre aux joueurs de créer des composants annexes au jeu de base de manière ludique.


Les éditeurs de jeux sont parfaits pour les game designers désireux de tester de nouveaux concepts et assets. De plus, les éditeurs de jeux sont des programmes puissants qui offrent une véritable liberté de création. La modification des fichiers du jeu Parce que chaque jeu n’est pas toujours accompagné d’un éditeur, il faudra modifier les fichiers source du jeu manuellement. Des logiciels spécialisés vous assistent toutefois durant cette phase laborieuse. Si vous aimez farfouiller, si vous êtes curieux d’apprendre et déterminé, alors cette solution peut s’avérer très intéressante.


Les game makers


Les game makers sont des logiciels qui vous assistent durant la création d’un type de jeu spécifique. Il y a des game makers conçus pour pratiquement tous les genres de jeux. Par exemple, RPG Maker permet d’élaborer des RPG, MUGEN sert à créer des jeux de combat, Adventure Game Studio est idéal pour mettre au point un jeu d’aventure. Chacun de ces logiciels offre des outils adaptés et en plus de cela, ils ne requièrent pas de connaissance approfondie en matière de programmation. En effet, les game makers se contentent de réutiliser un langage de scripting très abordable dans le but de donner vie à un large panel d’actions. Par ailleurs, pour créer le jeu, il suffit simplement de cliquer sur des boutons qui activent une commande et de configurer certaines propriétés basiques.


Les moteurs de jeux


Des entreprises sont spécialisées dans la conception de moteurs de jeux. Ces outils complets permettent de mettre en production n’importe quel jeu. Ainsi, Epic Games a mis au point Unreal Engine 4 tandis que Unity Technologies est connu pour son fameux moteur Unity 3D. On peut également cité un troisième moteur de jeux très populaire : CryENGINE, fabriqué par Crytek. L’avantage des moteurs de jeux est qu’ils vous offrent des produits clé en main : moteur graphique, moteur physique, fonctionnalités pour lancer un jeu en ligne tout à fait fonctionnel, tout y est. Les rares moments où la programmation intervient finalement, c’est quand vous devez vous occuper du gameplay, en implémentant les différents comportements requis. Grâce aux éditeurs de code des moteurs de jeux, vous pourrez créer tout un tas d’interactions et distribuer votre production sur toutes les plateformes connues : PC, consoles, smartphones et même sur internet. Vous noterez que les moteurs de jeux sont des logiciels professionnels qui sont tout à fait accessibles aux amateurs. Ils sont donc non seulement puissants, mais aussi abordables. C’est à mon avis le meilleur compromis pour créer un jeu vidéo. La programmation La dernière option qui s’offre à vous n’est autre que la programmation. C’est une méthode réservée aux assoiffés de connaissance, ceux qui veulent apprendre à faire un jeu vidéo à l’ancienne. Si vous voulez vous lancer dans la programmation, il faudra avant tout chose choisir un langage. Le C+ est de loin le langage le plus utilisé dans le monde du jeu vidéo mais on trouve aussi le Java, qui est idéal si vous souhaitez sortir votre jeu sur Android. Le C# est quant à lui limité aux plateformes Microsoft et le Python, langage de script très simple bien que performant, ne vous donnera aucun mal car facile à maîtriser. Si la programmation est votre choix définitif, vous devrez également penser à : Déterminer une bibliothèque (où vous stockerez toutes les fonctions du jeu), les plus connues étant DirectX, OpenGL, SDL, Ogre, Havok etc. Choisir un serveur si vous comptez lancer votre jeu sur le web. Les hébergements sont payants et les espaces de stockage et bandes passantes varient selon le prix que vous mettez. Choisir un langage de programmation adapté à une utilisation en réseau : les langages HTML, Java et Flash sont de loin les plus réputés dans ce domaine. Utiliser des outils qui vous aideront à créer plus facilement votre jeu. Ici, je parle par exemple d’un éditeur de code, d’un logiciel de modélisation ou de création de diagrammes, d’un logiciel de contrôle des versions, d’un bugtracker voire même d’un programme de gestion de projet. Comment assurer la réussite de son jeu ? Logiciel Auxy Beat Studio pour concevoir sa musique de jeu vidéo Auxy Beat Studio, c’est la référence pour créer sa musique de jeu vidéo ! Au lieu de vous mentir en vous disant que votre jeu sera une réussite totale, je vais plutôt vous donner des conseils pour ne pas vous louper à coup sûr, ce qui est je pense déjà pas mal. Il faut être capable de réfléchir en amont et surtout songer à pérenniser votre projet. Vous devez imaginer ce que sera votre jeu dans un avenir lointain, et pour ce faire, il faut respecter certaines règles. Choisir la plateforme pour son jeu S’il est dorénavant courant de développer des applications et plateformes pour PC – l’écriture du code et sa compilation se réalisant de toute façon sur ce type de terminal –, plusieurs créateurs débutants font le choix de se lancer dans la création d’un jeu disponible sur consoles ou smartphones. En réalité, plus vous ciblerez la plateforme, plus la difficulté sera grande en termes de programmation, cela étant essentiellement dû à des contraintes matérielles. Essayez-donc, si possible, d’utiliser un moteur permettant l’exportation de votre jeu vers la ou les plateformes choisies. Vous noterez que si vous souhaitez lancer votre jeu sur PS4 ou Xbox One, vous devrez également vous faire connaître du constructeur. Sans son autorisation, vous ne pourrez pas exporter votre jeu sur son terminal. Comprendre les licences de vos outils Dans tous les aspects de la création du jeu, vous devrez vous conformer à la loi. Vous devrez non seulement obtenir l’accord du constructeur mais aussi respecter les licences de chaque bibliothèque, moteur ou logiciel que vous utiliserez car ces derniers sont certainement soumis à des droits d’auteur. Par exemple, Unreal Engine et Unity 3D vous permettent de réaliser un jeu vidéo gratuitement. Par contre, si vous souhaitez le commercialiser, vous n’aurez d’autre choix que de payer l’éditeur pour poursuivre l’aventure. Soyez rassuré néanmoins, car on trouve vraiment de tout en ce qui concerne les licences. Mais dans tous les cas, soyez certain de bien lire les documents que vous avez sous les yeux et ne jouez pas trop avec la loi si vous souhaitez distribuer votre création. Voilà, ce dossier mensuel touche déjà à sa fin. Comme d’habitude, on termine avec une vidéo sympathique qui résume le tout. Et n’oubliez pas : créer un jeu vidéo est un projet magnifique, alors donnez-vous les moyens d’y arriver !

more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Report on Cybersecurity and
Critical Infrastructure in the Americas by Trend Micro & OAS, 2015

Attacks on critical infrastructure have become a growing cause of concern for governments and private providers around the globe—whether inflicted by cybercriminals seeking financial gain or by hackers as political acts aimed at undermining governments’ and companies’ credibility. The trepidation around these threats is justified, as research demonstrates that attacks on critical infrastructure have increased in both prevalence and sophistication and will continue to grow in the near future. Site management and monitoring has improved for critical infrastructure facilities as they have become more progressively connected to the Internet. The added convenience of connectivity, however, has turned the once-limited attack surface of these industries into a fertile landscape for cyber attacks. Due to the potentially high-profile effects of attacks to critical infrastructure systems, these industries have become even more attractive targets for cybercriminals. Building on the success of our seminal joint 2013 study “Latin American and Caribbean Cybersecurity Trends and Government Responses”, the OAS and Trend Micro have joined together to provide another view into the state of cybersecurity for OAS members. 5 This unprecedented survey of over 20 OAS Member States provides a view into the actual state of cybersecurity around critical infrastructure in the region and the threat trends these crucial organizations face. The data collected provides important insights into the cyber attacks experienced by critical infrastructure organizations in the region, as well as organizations’ cybersecurity measures and policies; collaboration with local governments; and their preparedness for cyber attacks. Many of the survey’s findings correlate with our existing research on critical infrastructure attacks, and new insights will help to guide our research in the future as we work to protect this industry against cyber attacks. The survey respondents came from government agencies, as well as critical industries such as communications, banking and finance, manufacturing, energy and security, among others. The respondents showed that attackers are as interested in data theft as causing chaos and mayhem by hacking control systems (SCADA). Not surprisingly, spear-phishing tactics were cited by all responding members as the single biggest attack method they had to defend against, with the exploitation of unpatched vendor software vulnerabilities being a distant second. This mirrors the problematic role that spear phishing plays in cybersecurity incidents generally, most especially in targeted attacks. 5 http://www .trendmicro.com/cloud-content/us/pdfs/security-intelligence/white-papers/wp- latin-american-and-caribbean-cybersecurity-trends-and-government-responses.pdf Repo R t on Cybe R se C u R ity and C R iti C al i nf R ast R u C tu R e in the a me R i C as 7 | Page © 2015 Trend Micro Incorporated Respondents made clear that attacks targeting infrastructure are a clear and present danger as only a clear minority of responding members could say they hadn’t seen these kinds of attacks. In their response outlining the threat landscape, participants painted a picture that depicts the threat as being severe, while some perceived the future of securing these infrastructures as bleak. For the majority of respondents, attack frequency is increasing or holding steady, with attack sophistication dramatically evolving. On the positive side, respondents indicated that they felt prepared or somewhat prepared to face a cyber attack. Organizations have put in place technologies, policies, and procedures that can help protect their environment. The report highlights the lack of a proactive partnership between governments and private organizations in this region. A stark majority of respondents in both private industry and government reported either no dialogue or only informal dialogues between these key partners. A seminal conclusion is that the lack of a public/private partnership represents a historic missed opportunity, albeit the level of trust for governments to advance a cybersecurity agenda around critical infrastructure is very high for all respondents. The other clear threat to preparedness to meet these evolving threats is flat budgets. A clear majority of respondents reported challenges that can hamper their ongoing defense against attacks targeting critical infrastructures. While organizations in the Americas have done good foundational work to protect critical infrastructure against attacks, a tipping point looms. As attacks continue or worsen in frequency and sophistication and focus not just on disrupting critical infrastructure but also compromising key information that could be used in the future, defenders may soon find themselves short in terms of the support necessary to stave off threats. The lack of funding and an unmet desire for government leadership in this area leaves defenders feeling increasingly left on their own. More than ever, governments in the region need to take the outstretched hands of those in critical infrastructure looking for help and lead them to help better protect against increasing attacks against this crucial sector
more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Banca móvil y dinero electrónico: Desafíos y oportunidades para la región latinoamericana #Navarrete 

Banca móvil y dinero electrónico: Desafíos y oportunidades para la región latinoamericana #Navarrete  | Sciences et technologies | Scoop.it

Este es un post de Juan Navarrete (Director de la Division de Inclusión Financiera para Fundación Capital), colaborador para este sección especial.


Estado Actual en América Latina y el mundo


De acuerdo al International Finance Corporation (IFC), a Enero de 2016 existían en el mundo 7,300 millones de personas, de las cuales el 51% (3,700 millones) son usuarias de celulares activos. Volcando la mirada en América, existen aproximadamente 1,072 millones de líneas activas de teléfono celular, siendo este número superior al del total de la población, que se sitúa en 997 millones; es decir, existen más conexiones a celular que habitantes en el continente. En la actualidad se desarrollan 37 iniciativas de dinero móvil en la región, con un fuerte crecimiento durante los últimos años. Los primeros desarrollos en esta materia tuvieron lugar en 2008, y a la fecha las nuevas iniciativas han aprovechado las llamadas “ventajas del atraso”, ya que han podido desarrollar en menor tiempo y con mayor efectividad alternativas de dinero electrónico y banca móvil aprovechando lecciones aprendidas previamente por otros actores e iniciativas. Autor: Fundación Capital En relación con los servicios financieros, la banca móvil se constituye como un canal transaccional, cuya función principal es la de facilitar la conexión con servicios financieros apoyados en el uso de la tecnología. Proporciona una ventaja de costos para quienes lo ponen a disposición de sus usuarios. El dinero electrónico (e-money en inglés), de acuerdo con una investigación de BBVA, “es un instrumento financiero que almacena valor electrónicamente contra la recepción de fondos equivalentes por parte del emisor. Se acepta como medio de pago por terceros ajenos al emisor y puede transferirse entre usuarios y convertirse de nuevo en efectivo. El valor se almacena en un dispositivo electrónico que puede ser un monedero virtual en Internet, una tarjeta de pago prepagada u otras tarjetas inteligentes, como una tarjeta de telefonía móvil. En este último caso, a veces se hace referencia al dinero electrónico como dinero móvil”. Dentro de los desafíos que se identifican para este tema, que ha cobrado gran relevancia en los últimos años, destacan los siguientes: – cómo incentivar el uso de plataformas de banca móvil y dinero electrónico desarrollando un ecosistema sostenible e inclusivo; – cómo pueden la regulación y las políticas públicas apoyar el surgimiento de innovaciones en este sector, favoreciendo la confianza y el uso por parte de la población, y – cómo puede la revolución digital impulsar la inclusión financiera de la población tradicionalmente excluida del sector financiero.


La función de la política pública


La política pública debe atender tanto al ámbito de la oferta como al de la demanda. Respecto a la demanda, la política juega un importante papel a la hora de informar al usuario, estimular su confianza y favorecer el desarrollo de capacidades financieras específicamente dirigidas a este nuevo sistema, para que puedan tomar decisiones informadas, con bajo nivel de riesgo. En cuanto al trabajo sobre la oferta, la política pública es importante a la hora de favorecer la capilaridad del sistema (la red debe ser capaz de alcanzar sectores remotos e informales) y la interoperabilidad (entre plataformas y proveedores). De forma transversal, la política pública deberá contemplar aspectos de medición e indicadores de éxito para el sistema. Estos elementos deben ser tomados en cuenta si se quiere que la política resulte efectiva para la inclusión de sectores de población que no cuentan con acceso a servicios financieros en la actualidad.


Desafíos en el acercamiento al usuario y el desarrollo de canales y productos


Varios son los desafíos relacionados con el usuario y el desarrollo de productos y canales. Algunos de ellos serían:


Usuario


Trabajo desde enfoques diferenciados. No perder de vista a los diferentes tipos de usuarios que están inmersos en un ecosistema. Los procesos de creación de productos y canales desde el usuario son básicos para poder tener éxito en el acceso y el uso de servicios financieros. Focalizar estrategias de desarrollo de productos enfocado a jóvenes. Los jóvenes estarán más dispuestos a utilizar servicios financieros mediante sus teléfonos móviles, por lo tanto las estrategias deben focalizarse. Confianza: en general, existe entre la gente de bajos ingresos una manifiesta desconfianza hacia el sistema financiero y, en el caso de la banca móvil, la desconfianza se ve agravada por la falta de capacidad para entender cómo funciona este sistema, por el desconocimiento de herramientas tecnológicas. Además, también influye la percepción de inseguridad que todavía generan los medios electrónicos de pago: el dinero físico, tangible, proporciona una sensación de seguridad que el dinero electrónico no da.

Productos

Incentivos al uso de los productos. Sobre todo las instituciones financieras o aquellos precursores de las mismas deben pensar en incentivos que permitan que los usuarios adopten y usen los servicios financieros a través de la tecnología. Acompañar de Educación Financiera. La adopción depende del grado de conocimiento de la población, este nivel de adopción genera confianza; y en base a la experiencia uno de los métodos para lograrlo es hacerlo mediante la educación y formación de capacidades de los usuarios. Canales Ser un modelo de negocio sostenible para quien los crea. El desarrollo de canales presenta un desafío al momento de destinar inversiones para el desarrollo e innovación. Un canal debe ser un modelo de negocio que permita ser sostenible y sobre todo escalable. En la capilaridad de un canal radica el nivel de uso y por ende su sustentabilidad. Beneficios por ser corresponsal. Dentro del ecosistema de dinero electrónico se necesita centros de transacción (donde puede ser utilizado el dinero electrónico) y puntos para cash in /out (donde se pueda canjear y cargar la billetera móvil). Estos puntos pueden ser corresponsales y para que los pequeños o medianos negocios quisieran ser un canal deberían tener un incentivo que podría ser tributario o de manera privativa desde la institución que los patrocina. El papel de la regulación Autor: Fundación Capital La regulación es necesaria en este tema, y debe promover una sana competencia en la creación de productos y servicios desde los ofertantes. El regulador debe trazar la cancha de los participantes en el ecosistema en temas como: participación de miembros del ecosistema, riesgos implícitos en productos móviles, entes de control y forma de manejo de dinero (depósitos de dinero), identificación de barreras para la inclusión financiera y permitir que los ofertantes tengan espacio para innovar y siempre tengan a la generación de confianza entre los temas fundamentales. Muchas inquietudes deben subsanar las regulaciones como por ejemplo: Qué entidades están autorizadas para emitir dinero electrónico. Cuáles son los requisitos que una entidad debe cumplir para ser emisora, y quién es el organismo que la controla. La acumulación de dinero en una cuenta electrónica, ¿es considerado como un depósito? Los depósitos en cuentas electrónicas, ¿ganan intereses? ¿Existen organismos que respalden los ahorros generados en este tipo de cuentas? Cuáles son los límites de saldo, transacciones en el sistema, etc. Controles frente a financiamiento de delitos y lavado de activos. Exigencia de una educación financiera y tecnológica. Iniciativas desde el trabajo de la demanda Las 37 iniciativas que se reportan en la región latinoamericana tienen en común el estar enfocadas a la población no bancarizada. Ciertamente, este debería ser el enfoque, aunque hablar de un proceso de inclusión financiera, con las barreras y características que se observan en varias iniciativas, resulta algo ambicioso. La población excluida merece ser un foco de atención prioritario al momento del diseño, desarrollo e implementación de nuevos instrumentos financieros. Una de las alternativas es utilizar una metodología que permita el acercamiento a la población objetivo, analizar su comportamiento en el uso de productos financieros y diseñar productos, servicios y canales buscando la máxima satisfacción de un usuario en la experiencia de utilización de una solución; y con base en este análisis, que finalmente la adopción por parte de los usuarios sea más efectiva.    


Juan Navarrete es el Director de la Division de Inclusión Financiera para Fundación Capital. Ha sido servidor público para la Banca de Desarrollo en México, al encargarse del área de estudios del Banco del Ahorro Nacional y Servicios Financieros (BANSEFI). También fue director ejecutivo de la oficina en México de PlaNet Finance. Como consultor independiente, ha dirigido proyectos en América Latina, el sudeste asiático y África, en los que ha realizado estudios de impacto de programas de desarrollo, así como evaluaciones de instituciones financieras. También ha provisto asistencia técnica a instituciones microfinancieras para el diseño de productos.

more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Mozilla lance un outil gratuit d'analyse de la sécurité des sites web #DubbedObservatory

Mozilla lance un outil gratuit d'analyse de la sécurité des sites web #DubbedObservatory | Sciences et technologies | Scoop.it

https://observatory.mozilla.org/

Le service Dubbed Observatory de Mozilla ne recherche pas les vulnérabilités de code, mais vérifie que les multiples mécanismes de sécurité disponibles sont présents et bien configurés. Afin d'aider les webmasters à mieux protéger leurs sites web et leurs utilisateurs, Mozilla a développé un scanner en ligne qui permet de vérifier que les paramètres de sécurité de leurs serveurs web sont optimums. L’outil Dubbed Observatory, développé par Avril King, ingénieur en sécurité de Mozilla, était initialement destiné à un usage interne. Mais, celle-ci a encouragé l’éditeur à le rendre disponible partout dans le monde. L’idée de proposer un système d’analyse global lui a été inspirée par le SSL Server Test de Qualys SSL Labs, un scanner très apprécié qui évalue la configuration SSL/TLS d'un site web et met en évidence ses faiblesses potentielles. Comme le scanner de Qualys, Dubbed Observatory a adopté un système de notation de 0 à 100, doublé d’un classement de F à A+ pour affiner la qualité. AdTech Ad Contrairement au SSL Server Test, qui vérifie uniquement l’usage du TLS, Dubbed Observatory de Mozilla vérifie plusieurs mécanismes de sécurité en vigueur sur le web. Par exemple, l’outil recherche la présence de flags de sécurité lors de l’envoi d’un cookie, du Cross-Origin Resource Sharing (CORS) qui permet à tout navigateur compatible d’effectuer des requêtes HTTP cross-domain, du Content Security Policy (CSP), un mécanisme de sécurité qui permet de restreindre l'origine du contenu dans une page web à certains sites autorisés, de HTTP Public Key Pinning, une fonctionnalité de sécurité qui dit au client web d'associer une clé publique cryptographique avec un certain serveur web pour éviter les attaques Man In The Middle avec des certificats contrefaits, de HTTP Strict Transport Security (HSTS), un dispositif de sécurité par lequel un site web peut déclarer aux navigateurs qu'ils doivent communiquer avec lui en utilisant exclusivement le protocole HTTPS, au lieu du HTTP. Dubbed Observatory vérifie également les redirections, l’intégrité des sous-ressources, la présence de l’en-tête X-Frame-Options qui indique si une ressource est autorisée à être chargée dans un cadre ou un iframe, celle de l’en-tête de réponse X-Content-Type-Options, une autre fonction de sécurité qui facilite la prévention des attaques basées sur la confusion du type MIME, de l’en-tête X-XSS-Protection qui permet de protéger les utilisateurs contre les attaques XSS, et plus encore. L'outil ne vérifie pas seulement si ces technologies sont utilisées par le site, mais il s’assure également que leur implémentation est correcte. Par contre, Dubbed Observatory ne recherche pas les failles dans le code du site, une fonction déjà réalisée par un grand nombre d'outils gratuits et commerciaux.


Une plate-forme de tests centralisée


À certains égards, vérifier que la configuration d’un site web est sécurisée - en utilisant toutes les technologies disponibles développées ces dernières années par les éditeurs de navigateurs - est plus difficile que de trouver et de corriger des vulnérabilités de code. « Les caractéristiques de ces technologies sont éparpillées dans des dizaines de documents, et même si l’on trouve des articles sur le sujet, il n’existe pas de référentiel regroupant tous ces documents à l’usage des opérateurs de site qui leur permettrait de connaître l’utilité de chaque technologie, comment les mettre en œuvre, ainsi que leur importance respective », a déclaré April King dans un blog. Cette difficulté à trouver des ressources facilement exploitables sur ces fonctions de sécurisation de sites web n’a pas favorisé leur adoption, comme l’a montré le scan réalisé avec l’outil Dubbed Observatory. Ainsi, sur 1,3 million de sites web analysés, seuls 121 984 ont passé le test avec succès. Même certains sites web de Mozilla ont échoué. Par exemple, le site addons.mozilla.org, qui est pourtant l’un des plus importants de l’éditeur, s’en sort avec un F médiocre. Depuis le scan, les faiblesses ont été corrigées et le site est maintenant classé A+. La présentation des résultats des tests par Dubbed Observatory est très conviviale. Ils sont assortis de liens vers les documents contenant les directives de sécurité de Mozilla, avec les descriptions et des exemples de mise en œuvre, ce qui permet aux administrateurs de sites Web de comprendre plus facilement les problèmes détectés lors de l'analyse et de savoir lesquels ils doivent résoudre en priorité. « Évidemment, les résultats de Dubbed Observatory ne sont peut-être pas totalement adaptés à votre site - les besoins de sécurité d'un site comme GitHub sont beaucoup plus complexes que ceux d'un blog personnel », a déclaré Avril King. « Mais, en encourageant l'adoption de ces normes, y compris pour les sites peu exposés, nous espérons familiariser les développeurs, les administrateurs système et les professionnels de la sécurité à travers le monde avec ces fonctions ». Le code qui sert de base à Dubbed Observatory est open source. Une API et des outils de ligne de commande sont disponibles pour les administrateurs qui ont besoin d’effectuer régulièrement le scan d’un grand nombre de sites web ou qui veulent effectuer leurs analyses en interne. Article de Lucian Constantin / IDG News Service (adapté par Jean Elyan)

more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

#GithubUniverse The event for people building the future of software : September 13-15, 2016

#GithubUniverse The event for people building the future of software : September 13-15, 2016 | Sciences et technologies | Scoop.it

On September 14th and 15th, you'll join 1,400 engineers, technical leads, open source developers, and business leaders at GitHub Universe. The event features two keynotes, six featured speakers, and twenty-four breakout sessions that dive deep into technical and team challenges of building software. Together we'll explore what it takes to define the future of software. Hear how individuals and teams are using modern tools, processes, and cultures to tackle the ever-bigger challenges we face. We'll look at ways to apply that software to impact everything from communities to businesses. Software is more than code and at Universe we explore it all.


Training Day


Comprehensive and in-depth learning from GitHub's Professional Services team. Buy a training ticket Training

Day Schedule Tuesday, September 13

Track 1 GitHub Power Users Track 2 Dev Ops 9:00 AM Getting Started with Innersourcing The Plumbers Guide to the Galaxy: Implementing a CI/CD Pipeline with GitHub 12:00 PM Lunch 1:30 PM Blasting off with the GitHub API GitHub Integrations & the Project Lifecycle 3:00 PM Break 3:30 PM Git Cozy Life Embetterment with Hubot


Conference Schedule


Wednesday, 9/14 Thursday, 9/15 Launch Flight Orbit 9:00 AM Registration & Breakfast 10:00 AM Keynote by Chris Wanstrath & Featured Speakers 11:20 AM Break 11:40 AM Developing Open Source in Service to National Security The GitHub Flow YesSQL, process and tooling at scale 12:20 PM Lunch 1:40 PM gh-ost: GitHub's online schema migrations tool for MySQL GitHub Workflow Improvements Pains & Gains: Six Short Stories from Open Source Maintainers 2:20 PM Break 2:40 PM Innersource: Reaping the Benefits of Open Source, Behind Your Firewall Lending Privilege Building applications to extend GitHub 3:20 PM Break 4:00 PM Updating our Platform to help integrators ship Managing GitHub at Scale Making online collaboration safer at GitHub 4:40 PM Break 5:00 PM Sunspring by Ross Goodwin and Oscar Sharp 5:40 PM Relax & Refuel 8:00 PM The Big Bang featuring Common and benefiting Black Girls Code


Platform Day


Integrators, partners, and other teams building on-top of the GitHub API have an opportunity to come together before Universe. This mini-conference brings together the GitHub ecosystem to learn from each other, share best practices, and hear from our Platform and Business Development teams. The event is open by invitation to people facing the unique challenges of building on the GitHub platform. Request an invitation to platform day Ask Services Returning to Universe is the opportunity to get one-on-one time with our Field Services team. Designed for businesses both small and large, this is a complimentary 30-minute consultation to discuss workflows, use cases, migrations, configurations of your GitHub.com or GitHub Enterprise instance, or any other Git topics you want to tackle.


Ask Services is available to all Universe attendees but due to limited availability you must reserve your spot in advance. After you've registered for Universe, reserve your Ask Services session. The Big Bang You've never been to an after-party like this. The Big Bang brings together the community to support and celebrate an organization shaping the future of software, Black Girls Code. Featuring two headlining acts in the historic Masonic Auditorium,


The Big Bang unites Universe attendees and the broader Bay Area community. The concert is free for all Universe badgeholders and open to the public for a donation. Public tickets will be on sale as soon as we announce the line-up. Follow @githubuniverse on Twitter to get the latest updates.

more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Le chiffrement, la propagande et les états - Pixellibre.net

Le chiffrement, la propagande et les états - Pixellibre.net | Sciences et technologies | Scoop.it

Gauche, droite, état, procureurs, policiers, services ou agences de renseignement et, de plus en plus, citoyens, s’embarquent dans une campagne contre le chiffrement. Ce truc qu’ils appellent « cryptage » par abus de langage. Des Etats-Unis d’Amérique à la France en passant par l’Angleterre, la campagne de communication instaurée à l’encontre du chiffrement fait rage. Analyse… Une nouvelle fois, peut-être dans le vent. Je vais tenter d’expliquer pourquoi il est impossible, et dangereux, d’affaiblir le chiffrement.

Le point de vue

Résumons rapidement les positions défendues. D’un côté nous avons tout ce qui s’apparente, de près ou de loin, aux forces de l’ordre et à la justice. Pour ces derniers, le chiffrement est une plaie et complique le travail de tout le monde. De plus en plus de sociétés protègent les données de leurs utilisateurs, leurs conversations, échanges, données, qu’elles soient stockées en local comme sur un téléphone ou dans le « cloud ». Pour les personnes opposées au chiffrement, il faut que cela cesse. Ils partent du principe que cela rend « aveugle », qu’il devient impossible d’écouter des personnes, d’intercepter des échanges. Qu’il devient impossible d’anticiper des passages à l’acte ou des attentats. Certains vont jusqu’à déclarer que les sociétés qui protègent les données de leurs utilisateurs se rendent complices des terroristes… Je vais considérer que c’est l’ignorance qui fait parler ces personnes. Même s’ils sont sacrément ignorants pour déclarer de telles conneries. De l’autre côté, nous avons des experts, des agences de sécurité comme l’ANSSI, des geeks, des hackers, des journalistes, des éditeurs de logiciels, des fournisseurs de matériel… qui, eux, défendent le chiffrement. Pour eux, c’est la pierre angulaire du monde actuel, c’est grâce à l’ensemble des techniques de chiffrement des échanges qu’Internet est ce qu’il est. Ils partent du principe suivant : le chiffrement permet de protéger des échanges et permet d’obtenir un minimum d’intimité et de sécurité. Il apporte également une solution de confiance dans les échanges commerciaux, plus que concernés par la protection des échanges et des transactions financières. Enfin, le chiffrement permet aussi à certains de pouvoir s’exprimer sans se faire arrêter, de pouvoir exfiltrer des informations qui n’auraient pas pu sortir autrement.

Les souhaits

Pour les « anti », la solution est simple : soit on interdit le chiffrement, soit on le limite assez pour qu’il soit « cassable », soit on le « backdoor ». Ce qui signifie, pour les profanes, qu’on cache une porte dérobée à l’intérieur du code ou du programme afin de pouvoir y rentrer un peu quand on le souhaite. Bien sûr, pour ces personnes, l’usage de ces backdoors serait strictement réservé aux services et agences de renseignement ainsi qu’aux forces de l’ordre.

Peut-on interdire le chiffrement ?

La réponse est simple : c’est non. D’abord parce que l’interdire reviendrait à l’interdire pour tout le monde, donc, à exposer l’ensemble de nos données à n’importe qui. Exit la sécurité de votre application « ma banque », qui vous permet de gérer votre compte depuis votre Smartphone. Terminé la protection de vos photos, de vos mails, de vos échanges personnels ou intimes. Terminés, aussi, les paiements en ligne, donc l’e-commerce, plus de Paypal, d’Amazon, d’EBay…

Le limiter alors ?

Non plus. L’explication est plus longue, même si elle reste simple. La première chose à garder en tête est la suivante : aucune technique de chiffrement, aucun algorithme, absolument rien n’est parfait et incassable. On dit d’un système qu’il est de confiance lorsque les moyens à mettre en place pour le briser sont trop importants, soit en termes de ressources et de puissance de calcul, soit en termes de temps. Ainsi, s’il faut 300 000 000 000 ans et toute la puissance de calcul de la planète pour casser quelque chose, on dira qu’il est assez solide. Assez solide ne veut pas dire incassable, cela signifie plutôt « avec les moyens actuels, ce truc est solide ». Ce qui signifie aussi « d’ici 10 ans, cela ne sera sans doute plus le cas ». Je pense que vous comprenez pourquoi il est dangereux de limiter le chiffrement … cela revient au même que de ne pas en avoir.

Bon bah les backdoors alors…

La réponse est à nouveau non. Un non ferme, définitif, catégorique, suivi d’un coup de batte de Baseball sur le crâne pour te remettre les idées en place. Prenons un exemple de la vie quotidienne, sans algorithmes, sans informatique : votre appartement ou votre maison. Un jour, un réforme est adoptée par votre pays. Cette dernière impose à chaque foyer de mettre en place une porte « secrète » afin que les forces de l’ordre puissent rentrer chez vous, en cas de problème. Croyez-vous réellement que cette porte ne sera utilisée que par les forces de l’ordre ?! Non, évidemment non. Vous savez qu’en mettant un accès secret, vous créez une faille, que quelqu’un finira par trouver cet accès et s’en servira. Et c’est ainsi que vous retrouverez votre maison vidée. Voyez-vous le problème ? Poser une backdoor quelque part, dans un logiciel ou dans un équipement, c’est exactement la même chose. C’est donner un accès à des ennemis ou à des personnes aux mauvaises intentions. Il est impossible de garantir que ladite porte dérobée ne sera utilisée que par les personnes habilitées à le faire. Instaurer une backdoor revient donc à affaiblir toutes les protections installées, chiffrement compris. Dernier point, pour bien comprendre le problème… Il existe de nombreux logiciels qui embarquent, maintenant, une solution de chiffrement. Seulement, ces logiciels utilisent les mêmes techniques, le standard, la norme. Comprenons-nous sur un exemple simple, le HTTPS : il n’existe pas un HTTPS pour Facebook, un pour Amazon, un pour tel ou tel autre site. C’est le protocole HTTPS qui est utilisé par Facebook, par Amazon ou par les autres…. Ainsi, dans notre exemple, installer un backdoor ne reviendrait pas à avoir accès à un seul site mais à l’ensemble des sites qui utilisent ledit HTTPS. Autant dire que c’est « open bar », cela ira plus vite.

En théorie… …

les gens comprennent que le chiffrement est nécessaire, qu’il doit être renforcé, protégé et surtout, qu’un outil n’est ni bon ni mauvais, ce sont les personnes qui s’en servent qui le sont. Si l’organisation Etat Islamique utilise Telegram, c’est parce qu’elle considère que c’est assez solide, robuste, de confiance, sécurisé et qu’elle arrive à répandre sa propagande abjecte dessus. Cela ne fait pas de Telegram une application à interdire, dangereuse ou que sais-je encore. D’ailleurs, si on vient à interdire Telegram, les clowns de l’Etat Islamique iront simplement ailleurs, sur d’autres canaux d’échange. Quitte à développer leur propre système de communication sur leur propre application, l’Etat Islamique étant de plus en plus à la page sur le numérique, ce n’est pas inconcevable. Bref, en Théorie donc, ce billet n’aurait aucune raison d’exister, puisque tout le monde aurait pris le temps d’utiliser cette merveilleuse chose nommée cerveau, pour se poser, réfléchir et se rendre compte de l’absurdité de la chose. C’est beau, la Théorie…

En pratique,

le constat est différent, une partie du corps politique sort des énormités et une partie de la population ne se demande pas une seule seconde si c’est vrai ou pas, préférant croire que si c’est dit, c’est forcément vrai. Je ne peux qu’inviter ces personnes à réfléchir « global » avant de parler et, pourquoi pas, à lire ce billet qui, j’espère, en fera réfléchir quelques-uns…

more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Here’s an amazing trick for converting Bluetooth signals into Wi-Fi - MIT Technology Review

Here’s an amazing trick for converting Bluetooth signals into Wi-Fi - MIT Technology Review | Sciences et technologies | Scoop.it

First Wi-Fi-Enabled Smart Contact Lens Prototype A clever way of converting Bluetooth signals into Wi-Fi allows embedded devices to communicate easily with the outside world. by Emerging Technology from the arXiv July 29, 2016 One promise of modern microelectronics is the possibility of embedding sensors in various parts of the human body and using them to monitor everything from blood glucose levels to brain waves. They could even help treat conditions such as epilepsy, Parkinson’s disease, and other medical conditions. To carry out this work, these devices need to communicate with the outside world, and that is a power-consuming business. It can be done with bespoke RFID equipment, but this is large, unwieldy, and power-hungry. A better way would be to link with more portable and ubiquitous devices such as smartphones, watches, or tablets. But there is a problem. Although Bluetooth and Wi-Fi are relatively low-power forms of communication, they are way beyond the power budget of, say, a smart contact lens. Consequently there is no way to connect an embedded device via Bluetooth or Wi-Fi and so no way to communicate with them easily on the fly. That looks set to change thanks to the work of Joshua Smith and pals at the University of Washington in Seattle. These guys have developed a clever way for embedded devices to harvest Bluetooth radio signals and use them to broadcast Wi-Fi transmissions. The team has even built a number of Wi-Fi-enabled prototypes to show off the technique. At first glance, it’s easy to think that converting Bluetooth signals to Wi-Fi is impossible. These systems work at different frequencies and use entirely different transmission protocols. Wi-Fi requires a 22 MHz bandwidth and uses spread spectrum coding whereas Bluetooth requires up to 2 MHz bandwidth and relies on Gaussian Frequency Shift Keying, in which a one is represented by a positive frequency shift of 250 kHz and a zero as a negative shift of 250 kHz. These systems are entirely different. But Smith and co have come up with a clever trick that allows them to convert Bluetooth signals to Wi-Fi. This relies on making a Bluetooth transmitter broadcast a continuous sequence of either ones or zeros to produces a continuous tone of white noise. It is this noise that that embedded device picks up, modifies and rebroadcasts as Wi-Fi by a process called backscattering. This produces a signal that is shifted in frequency to one of the Wi-Fi channels and then modulated in line with the 802.11b Wi-Fi transmission protocol. In tests, this process has turned out to be extremely energy efficient. “In total, generating 2 Mbps 802.11b packets consumes 28 µW,” say Smith and co. Of course, any electrical engineer will tell you that this process also produces a mirror image signal on the other side of the Bluetooth frequency, which is at best wasted and at worst can interfere with other signals. Smith and pals have another clever trick to get around this. This involves choosing antenna materials that have a complex impedance. This leads to a mirror signal with a negative frequency, which cannot happen in practice. The result is the first example of single sideband backscattering. All this allows the embedded device to communicate with the outside world via backscattered signals. However, for bidirectional communication, the device also has to receive signals. The team do this by finding a way to make 802.11g Wi-Fi signals look like standard AM modulated signals, which the embedded device can pick up at a bit rate of 160 kbps. That’s not fast but the team says this could be significantly improved in future devices. Finally, these guys have put all these techniques together to build a variety of technology demonstrators. One is an antenna for a smart contact lens designed to monitor glucose levels in the wearer’s tears. The prototype consists of a 1 cm wire loop embedded in poly-dimethylsiloxane (PDMS) for biocompatibility. The team tested this by successfully backscattering and modifying Bluetooth signals from a nearby transmitter to a Samsung Galaxy S4 smartphone that picks up Wi-Fi. “The plot shows that we can achieve ranges of more than 24 inches, demonstrating the feasibility of a smart contact lens that communicates directly with commodity radios,” say the team. They also design an antenna for a neural recording device that can be embedded under the skull for monitoring brainwaves. To test this, they embed it in a pork chop and were again able to receive signals on their Samsung Galaxy S4 smartphone. That’s interesting work that paves the way for a new generation of embedded devices that can communicate easily with common portable devices. “We build proof-of-concepts for previously infeasible applications including the first contact lens form factor antenna prototype and an implantable neural recording interface that communicates directly with commodity devices such as smartphones and watches, thus enabling the vision of Internet-connected implanted devices,” says Smith and co. With further optimization, the team should be able to improve performance. And that will make possible a new generation of apps that allow people to interact with and process data from devices embedded in their bodies. Ref: arxiv.org/abs/1607.04663: Inter-Technology Backscatter: Toward Internet Connectivity for Implanted Devices

more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Plaidoyer pour enseigner Wikipédia par Alexandre Hocquet professeur à l’Université de Lorraine

Plaidoyer pour enseigner Wikipédia par Alexandre Hocquet professeur à l’Université de Lorraine | Sciences et technologies | Scoop.it

À la suite de la publication d’un billet intitulé « Que faire de Wikipédia ? » sur Devenir historien-ne, Alexandre Hocquet m’avait proposé un retour d’expérience. Nous avons tous les deux jugé qu’il avait plus sa place sur la boîte à outils, en particulier par l’accent mis sur certaines considérations techniques trop souvent négligées. Un article repris de la boîte à outils des historiens un site sous lic ence CC by nc nd JPEG - 37.1 ko Wikipédia est (ou devrait être) un objet extraordinaire à enseigner : tout le monde connaît Wikipédia, et presque tout le monde connaît mal Wikipédia. Cela devrait être la situation idéale pour un enseignant : Intéresser les étudiants avec quelque chose qu’ils connaissent, les surprendre en leur montrant qu’ils peuvent y découvrir beaucoup de choses. Malheureusement, mes propositions d’enseigner Wikipédia restent souvent lettre morte auprès des collègues qui font les maquettes pédagogiques. Je propose un cours à toutes les formations et tous les niveaux : enseigner Wikipédia est transversal et peut être fructueux du L1 au doctorat. Un des principaux malentendus est que « enseigner Wikipédia » est vu par les collègues comme une formation courte : au mieux « apprendre à l’utiliser », au pire « apprendre à s’en méfier ». Pourtant, il y a dans Wikipédia de quoi apprendre pendant tout un semestre. Tout d’abord, plonger dans Wikipédia demande de s’y faire petit à petit (voir les expériences pédagogiques de Lionel Barbe, ou le Wikimoocl’expérience massive d’enseignement par les wikipédiens eux mêmes). Surtout, Wikipédia est un objet d’étude sans égal du point de vue de la pertinence pour tout un tas d’aspects différents, pour moi qui voudrait enseigner mon domaine de recherche : Les STS, ou, dit autrement, les relations entre sciences et sociétés. Émilien Ruiz a développé en quoi Wikipédia est utile pour l’enseignement de la critique des sources. En tant qu’historien, je rejoins Émilien sur ce sujet : Wikipédia est un outil qui permet de distinguer ce qui est une bonne source selon Wikipédia et de le comparer à ce qu’est une source selon l’école méthodologique, l’école des Annales, la microhistoire, la ou encore la sociologie des épreuves : c’est un vrai cours d’histoire de la critique des sources, par la pratique. L’enseignement de l’analyse critique est à la mode en ce moment, particulièrement dans l’injonction ministérielle à se méfier « des théories du complot », à peine différente de l’injonction ministérielle à se méfier « d’Internet » d’il y a quelques années. Pour l’école, pour l’université et pour la presse, ce qui vient d’Internet est suspect a priori et Wikipédia est le « usual suspect » dans les entreprises de décrédibilisation de la part de ces trois institutions. Pourtant Wikipédia est un laboratoire très intéresant pour tester une « analyse critique des médias ». Plonger dans Wikipédia permet de se mettre à l’épreuve d’une communauté de pairs plutôt que d’une voix magistrale. Intervenir dans Wikipédia, c’est soumettre sa production (ou tout simplement son avis) aux mécanismes de recherche de consensus, de la vérifiabilité, de la neutralité de point de vue (des notions wikipédiennes qui elles mêmes demandent à être déconstruites mais cela demande du temps d’enseignement pour le faire). Ces notions épistémologiquesne sont pas seulement celles d’un mode de production de connaissance bien particulier, elles sont aussi liées (et se façonnent mutuellement) avec l’infrastructure technique et logicielle de Wikipédia (qu’est ce que le wiki et d’où vient il ? que sont les bots et comment travaillent ils ?), l’infrastructure juridique et politique (quel est le rôle de la Wikimedia Foundation, en quoi la production est elle liée aux licences ?). Les licences utilisées dans Wikipédia, et Wikipédia elle même, sont aussi un projet politique lié au monde du libre, aux « creative commons », et plus généralement aux « communs ». Enseigner Wikipédia c’est aussi enseigner un projet politique particulier et nouveau : c’est le seul « commun » à avoir réussi à exister à grande échelle, et les politiques du libre ne sont pas seulement un projet, ce sont aussi une mise en oeuvre, dans lesquelles la notion de forkingest primordiale (le forking, en tant qu’action politique, est l’équivalent d’un schisme. Il est à la fois une garantie de démocratie et une menca de division). De manière plus générale, Wikipédia est un des rares exemples à grande échelle d’un projet qui se veut « Open » et qui est obligé chaque jour par la pratique de définir ce qui est « Open » et ce qui ne l’est pas, parfois avec violence. Wikipédia est donc une étude de cas essentielle pour comprendre les « politiques de l’Open« , au delà d’un washing politique ou d’une vision militante, une critiquede l’Open. Enfin, Wikipédia est aussi une communauté et ce projet politique est aussi un projet d’organisation communautaire par les principes, les règles, les protocoles et la technique. L’organisation des débats, les règles de recherche de consensus, les procédures de vote s’y inventent. Wikipédia est une excellente étude de cas pour enseigner la « culture numérique » par l’exemple. Wikiédia permet de comprendre en quoi des projets techniques, des projets politiques, des projets épistémologiques (les trois mélangés) liés au monde du libre, au monde du software, au monde des « algorithmes » transpose ces notions dans un monde accessible au grand public. En ce sens, j’ai la conviction qu’il est bien plus utile pour comprendre ce monde, pour acquérir une « littératie numérique » de plonger dans les entrailles de Wikipédia que « d’apprendre à coder ». Mais dans la pratique, pour l’enseigner, la structure académique pose d’autres problèmes qu’un manque de vision pédagogique : elle pose des problèmes concrets à la fois pédagogiques et techniques. Le premier problème est la nécéssité (pour l’enseignant et l’étudiant) que le cours soit hybride : à moitié en présentiel et à moitié en ligne. Dans la mesure où intervenir dans Wikipédia est une activité propre à une communauté en ligne et qui réagit de manière asynchrone, la partie active de l’enseignement n’est pas du tout adaptée à être présents obligatoirement en classe/amphi tout le temps en même temps ensemble. Pour tout ce qui est présentation, exemples, principes, débat dans la classe, le présentiel s’impose, il est même crucial : enseigner Wikipédia en ligne serait possible mais la description critique des mécanismes d’une part, l’accompagnement dans les premiers pas et la conclusion d’autre part sont plus faciles en présentiel. Mais d’un autre côté toute la partie où l’étudiant doit plonger dans Wikipédia, y agir, y interagir ne se prête pas du tout à des séances en présentiel à heures et durée fixes : l’interaction avec la communauté est asynchrone. Pire, obliger les étudiants à intervenir ensemble en même temps sur Wikipédia est une aberration technique. Puisque tous les ordinateurs d’une même salle (voire même de toute une université ) sont vus par l’extérieur comme une seule adresse IP, la probabilité d’être vu comme une attaque en Denial of Service par Wikipédia est énorme et rend l’écriture dans Wikipédia impraticable. Wikipédia, pour se protéger, possède un mécanisme de throttle : pas plus de quelques interventions par minute provenant d’une même adresse IP avant blocage. La conséquence est de rendre impossible l’écriture dans Wikipédia dès que le nombre d’étudiants dépasse une poignée. Enseigner Wikipédia est à l’heure actuelle plein de promesses et une réelle frustration d’enseignant. Un formidable potentiel pédagogique et une incompréhension à plusieurs niveaux : à l’incompréhension des enjeux pédagogiques (à la fois dans la compréhension de la portée et de l’objet du cours et dans l’évolution nécesaire des pratiques pédagogiques) s’ajoute une incompréhension des problèmes techniques posés. Alexandre Hocquet Alexandre Hocquet est Professeur des Universités à l’Université de Lorraine, il appartient au laboratoire de philosophie et d’histoire des sciences « Archives Henri Poincaré » et son domaine est les STS, ou plus spécifiquement les Software Studies, et sa méthode l’analyse de conversations en fil. Wikipédiaest aussi un de ses objets de recherche. Son doppelgänger Osvaldo Piazzolla écrit sur le football. On peut suivre les deux sur un seul compte : @osvaldopiazzoll.

more...
No comment yet.