Territoire 2.0
3.8K views | +1 today
Follow
Territoire 2.0
Le territoire à l'ère du numérique, de l'Open Data, de l'Open Access et des villes intelligentes  
Your new post is loading...
Your new post is loading...
Scooped by Schallum Pierre
Scoop.it!

Quelle est votre stratégie Open Source? Par Frédéric Charles

Quelle est votre stratégie Open Source? Par Frédéric Charles | Territoire 2.0 | Scoop.it

Début décembre la France servait de flambeau à la communauté open source en hébergeant l'un de ses sommets annuels : l'Open Source Summit. Cette manifestation, qui a absorbé depuis 3 ans d'autres salons (dont Solutions Linux), sert également de prétexte au think tank "Open CIO Summit" (DSI qui croient en l'open source pour la gouvernance des DSI) pour se réunir. Cette année, cette manifestation a même vu un secrétaire d’État chargé du numérique, Mounir Mahjoubi, et sa prédécesseur, Axelle Lemaire, se relayer à la tribune. Une fois de plus, le recours plus systématique à l'open source dans les projets des services de l'État a été promis... Pourtant, la loi sur la République Numérique aurait pu être un boulevard pour faire de cette promesse une réalité en prenant une décision historique de faire de l'open source, non pas une solution "à privilégier" dans les administrations, mais une solution tout court. Mais cette loi ne l'aura pas fait. Pourtant ces solutions permettrait à l'État de fabriquer des "communs", utilisables et réutilisables dans le cadre d'une licence, mais également de construire des solutions scalables à l'échelle des territoires, d'un État puis d'un pays. C'est une autre façon de concrétiser la stratégie "d'État plateforme" au delà des seuls services d'accès aux services publics. Mais cette vision demande de changer de perspective sur l'open source qui est parfois réduit au seul sujet de licence logiciel. D'ailleurs quand les GAFAs, que GrenSI comparent parfois à des États (voir : Google la startup qui voulait se faire aussi grosse qu'un État) ont commencé à développer les plateformes qui servent maintenant des centaines de millions d'utilisateurs, et deux milliards pour la plus grande, c'est bien vers l'open source qu'ils se sont tournés dès le départ. Puis une fois qu'ils en ont adopté et amélioré certains composants, ou mis en open source ceux qu'ils ont créé, c'est tout un écosystème de sociétés et d'acteurs qui s'est engouffré dans leur sillage et qui continue d'innover sur les socles qu'ils ont ouverts. Dans les derniers exemples de ces ouvertures, au cœur des technologies du Cloud, l'adoption très rapide de Kubernetes, montre la force d'un tel modèle. Kubernetes est en effet un système open source permettant d'automatiser le déploiement et la montée en charge d'applications, conçu par Google et offert à la Cloud Native Computing Foundation. Quelle entreprise ou quel État pense avoir une meilleure expérience de scalabilité que Googe ? GreenSI n'a donc pas beaucoup de mal à penser que l'open source pourrait être la base d'une révolution au niveau des infrastructures (numériques) d'un État plus agile, à la fois pour sa transformation au numérique en interne (et c'est le vœu de Mounir Mahjoubi dans son discours) mais également pour la transformation externe de l'écosystème qui dépend (ou pourrait bénéficier) de son activité. Et si la nouvelle politique industrielle d'un État était de créer une plateforme offrant les conditions favorables au développement des PME qui sont si en retard sur Internet? Et si la #FrenchTech était plus qu'un label et l'accès à du financement, mais l'accès à une plateforme technologique et une expertise technique? Dans ces deux cas, la création de communs sur la base d'open source et une stratégie de plateforme seraient un très bon point de départ. En 2017, l'open source a donc clairement quitté le cœur de Linux, le débat sur le système d'exploitation souverain ou sur la licence, pour devenir la plateforme scalable et ouverte de transformation digitale. Pour GreenSI, l'open source ne doit donc plus être comparé aux progiciels du marché avec licence, car c'est plus que du logiciel : c'est une démarche. L'open source est une démarche outillée de création d'une plateforme numérique permettant à l'entreprise de développer, et même d'acheter, les applications qui deviennent le cœur de son métier.

L'open source peut donc être une stratégie, et qui mieux que la DSI peut la porter, si cette dernière ne se laisse pas enfermer dans sa relation historique avec les éditeurs ? Ces dernières années, les grands éditeurs ont d'ailleurs cherché à interpréter à leur avantage les contrats avec ces DSI. Dans un contexte d'ouverture de données (en dehors de ces progiciels) elles ont cherché a étendre les bases du calcul des licences pour en maximiser leurs profits et financer leur migration vers le SaaS. Si après de telles initiatives les DSI ont encore confiance, cela tient du syndrome de Stockholm... Le décalage entre open source et progiciel est donc autant celui des progiciels, qui deviennent des plateformes avec le SaaS (ou disparaissent), que celui de l'open source qui, de plateforme technique, devient une plateforme métier. Dorénavant le métier de l'entreprise numérique est la fabrication de logiciels et la capacité à délivrer des services numériques. Ces deux métiers sont outillés par les plateformes open source, de l'infrastructure aux outils de développement. La stratégie SI devrait donc lucidement regarder ce décalage et statuer sur le rôle de l'open source comme vecteur de transformation. GreenSI voit donc aujourd'hui un grand intérêt à l'open source pour traiter des plateformes digitales et les intégrer dans une stratégie clairement formulée, et non un choix tactique quand il se présente dans les projets :

l'activation de composants : les versions communautaires permettent de démarrer très en amont des projets souvent complexes qui demandent des pilotes, sans être obligé d’acheter une licence alors qu’on ne connaît pas encore exactement les besoins. Le modèle "pay as you go" amené par le développement du Cloud est finalement plus adapté à l'innovation que celui de la licence. Combien de DSI ont cherché à défendre des budgets élevés pour des plateformes logicielles permettant de nouveaux projets, alors que si ils avaient pu démarrer et obtenir des résultats rapides, ils n'auraient même pas eu besoin de demander de poursuivre? L'open source est donc bien positionné pour cela et les plateformes éditeurs vont devoir intégrer cette règle à leur modèle tarifaire. 

la scalabilité : les GAFAs ont démontré les capacités d'architectures scalables pour répondre à la demande mondiale, souvent largement au-delà des besoins des plus grandes entreprises. Les plateformes big data les plus utilisées sont d'ailleurs toutes issues de l'open source. 

le modèle collaboratif : l'open-source permet de rassembler plusieurs acteurs pour développer ensemble des composants ou les compléter, chacun ayant accès au code à confiance dans ce qu’il utilise. Ce travail collaboratif commence au niveau des développeurs avec une plateforme comme Github, qui en 10 ans s'est imposée comme essentielle pour animer une communauté de développeurs. C'est d'ailleurs une communauté où l'entraide est très forte pour compenser les faiblesses de documentation que peuvent avoir certains composants open source. GreenSI aime bien dire que de nombreuses entreprises cherchent l'entreprise collaborative alors qu'elles l'ont sous les yeux si elles regardaient leurs développeurs travailler. Dans le domaine des Smart Cities, structurellement collaboratif, où chacun amène sa pierre à l'édifice (sans jeu de mot), GreenSI pense qu'il n'y a pas d'autre alternative que d'avoir un noyau commun open source. C'était le thème au Paris Open Source Summit d'un atelier organisé par la société Smile. 

es standards : l'open source favorise l’émergence de standards de faits, et rassure les acteurs de l'écosystème jusqu'à permettre l’open-innovation pour travailler à plusieurs entreprises ou collectivités sur un même composant standard. Pour recruter des développeurs il est également plus simple de coller à des standards que de chercher le spécialiste d'un produit du marché devenu rare... qui se vendra à prix d'or. Suivez mon regard. 

la sécurité : elle est amenée par le processus collaboratif de construction, par l'ouverture du code, et comme personne n'est parfait, par une plus grande vitesse à patcher quand une faille est détectée. La sécurité, dans les années qui arrivent, va sonner la mort de tous les éditeurs qui n'auront pas les équipes suffisantes pour réagir rapidement. Pour l'open source, la taille et la vigueur de la communauté est donc un critère de choix des logiciels.

À l'Open Source Summit se tenait également un pavillon spécialisé sur l'internet des objets, et donc une fenêtre sur les architectures de l'internet de demain. Force* est de constater que l'open source est également bien placé pour continuer sa course dans ces nouvelles architectures du monde IoT en développement, à la fois au niveau des plateformes IoT centrales, comme les fournisseurs de Cloud l'ont montré en reposant principalement sur de l'open source, mais également dans les objets avec de l'embarqué et notamment une version Linux. Le duo Arduino et Raspberry Pi a également montré que la démarche open source s'étendait aux objets connectés eux-mêmes en permettant le prototypage rapide, mais également par le partage du design, de créer des communautés autour d'objets physiques. On sait également que l'intelligence artificielle va équiper à l'avenir ces objets pour les transformer en objets plus intelligents permettant de repenser les processus de l'entreprise. Comme l'open source sera incontournable pour l'analyse des données et l'intelligence artificielle, ce renforcera également sa proposition de valeur dans le mondes des objets connectés. L'open source semble donc être un formidable levier de transformation digitale, aujourd'hui mais également demain. Alterway, acteur du web et de l'open source, a déjà cette martelé cette vision d'un open source comme nouvelle idée du web. GreenSI pense qu'il va maintenant au delà du web et embrasse tout l'Internet. Pour l'activer il faut stopper de le comparer à du logiciel "acheté" sur le marché. C'est devenu autre chose. L'open source peut être vu comme une plateforme et un démarche, ouvertes et collaboratives d'open innovation. Toute stratégie SI de transformation devrait se demander comment l'exploiter. Mais comme les budgets marketing investis dans la promotion de l'open source sont négligeables par rapport aux millions que dépensent certains éditeurs pour vous raconter la même histoire, vous pourriez rater l'opportunité historique d'intégrer l'open source dans votre transformation digitale...


more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Impression 3D: La science en pièces détachées par Nicolas Martin #FabricationAdditive #FabLab

Impression 3D:  La science en pièces détachées par Nicolas Martin #FabricationAdditive #FabLab | Territoire 2.0 | Scoop.it

Qu’est ce que la fabrication additive ? Comment s’est elle développée ? Quels sont les différents matériaux utilisables ? Quelles sont les applications ? Quelles sont les perspectives de développement ? L'impression 3d sera t-elle la prochaine révolution industrielle ?


Quel est le point commun entre une coque de téléphone, une pièce de fuselage d’avion, le futur pneu increvable, une prothèse de main, de la peau humaine ou une maison ? Tous peuvent aujourd’hui être créés via une imprimante 3D. En l’espace de 20 ans, l’impression 3D, ou plus précisément la fabrication additive, a fait des progrès spectaculaires et a permis un gain de temps, de coût, de productivité et une accessibilité qui ont bouleversé de larges pans de l’industrie et de la recherche mais il reste encore quelques obstacles. Pourra-t-on un jour tout imprimer, et avec n’importe quel matériau ? Impression 3D : la science en pièces détachées. C’est le problème que La Méthode scientifique va examiner dans l’heure qui vient. Et pour modéliser l’histoire, l’actualité et le devenir des techniques d’impression 3D et les imprimer auditivement dans vos appareils auditifs, nous avec le plaisir de recevoir Patricia Krawczak, professeure à l’institut Mines Télécom, et directrice du département de plasturgie et matériaux composites de l’IMT Lille-Douai et Sylvain Lefebvre, directeur de recherche à l’INRIA à Nancy, dans le groupe LORIA. Le reportage du jour Rencontre avec Clément Moreau, co-fondateur et directeur général de Sculpteo, une start-up d’impression 3D. Par Antoine Beauchamp : Écouter LA_METHODE_SCIENTIFIQUE - Reportage "Sculpteo" avec Clément Moreau Le fil de l'émission Les références musicales Le titre du jour : “Let’s do it” par Franck Sinatra Générique du début : "Music to watch space girls by" par Leonard Nimoy Générique de fin : "Bergschrund" par DJ Shadow Chroniques 16H52 4min La Recherche montre en main Simulation numérique d'un procédé de fabrication additive Intervenants Patricia Krawczak Professeure à l’institut Mine Télécom (IMT) et directrice du département de plasturgie et matériaux composites de l’IMT Lille-Douais Sylvain Lefebvre Directeur de recherche à l’INRIA de Nancy, dans le groupe LORIA. Il participe au projet ALICE (Algorithme Computation and Image Departement)

more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Qui est derrière Linux en 2017 ? #Rapport2017LinuxKernelDevelopment

Qui est derrière Linux en 2017 ? #Rapport2017LinuxKernelDevelopment | Territoire 2.0 | Scoop.it

La fondation Linux a publié son dernier rapport sur les contributeurs du projet GNU Linux. L'occasion de savoir précisément qui fait quoi. https://www.linuxfoundation.org/2017-linux-kernel-report-landing-page/

Nous sommes en 2017 et Linux domine l’informatique. Vous n’y croyez pas ? La fondation Linux rapporte que Linux est utilisé dans 90% des instances cloud public, 82% des smartphones, 62% du marché de l’informatique embarquée, sans oublier 99% des superordinateurs. Tout cela repose sur les épaules du kernel Linux. Dans leur rapport 2017 Linux Kernel Development, Jonathan Corbet, développeur du noyau Linux et éditeur du site LWN.net, et Greg Kroah-Hartman, mainteneur Linux, font le point sur les évolutions récentes de l’OS libre. Le rapport a été présenté à l’occasion de la conférence, sur invitation, Linux Kernel Summit, qui se déroulait à Prague en République Tchèque. Depuis 2005, date de l’adoption du système de versionning Git, 15 637 développeurs provenant plus de 1400 entreprises différentes ont contribué au noyau Linux. Sur l’année passée, plus de 4300 développeurs de 500 entreprises ont contribué au kernel. Parmi ces contributeurs, 1670 le faisaient pour la première fois, soit un tiers des contributeurs environ. Le top 10 des sociétés participant à l’effort de développement du kernel Linux inclut maintenant Intel, Red Hat, Linaro, IBM, Samsung, Suse, Google, AMD, Renesas et Mellanox. Microsoft contribue toujours, mais ne fait plus partie du top 10 des contributeurs. 

Le développement de Linux s’accélère en parallèle de la croissance du nombre de développeurs et d’entreprises impliquées. À quel point ? Sur la période 2015/2016, on constate une moyenne de 7,8 patchs par heur. Le nombre moyen de modifications apportées au kernel par heure sur l’année passée est de 8,5. Ce n’est pas une typo. C’est une moyenne de 8,5 correctifs par heure, soit 204 par jour. Le nombre de jours de développement nécessaires pour chaque mise à jour à légèrement augmenté, passant de 66 jours à 67,66. Chaque mise à jour est publiée en moyenne entre 63 et 70 jours après la précédente, ce qui permet une certaine prédictibilité. La tendance vers des cycles de développement plus court provient d’une meilleure maîtrise et d’une meilleure discipline des contributeurs. C’est grâce à des contributions de haute qualité que la communauté est aujourd’hui capable de faire mieux que jamais et réparer les éventuels problèmes. En plus de cela, le groupe Intel 0-Day test service débusque des failles bien avant qu’elles ne soient implémentées dans le kernel. Ce service va automatiquement repérer des patchs publiés via la Linux Kernel Mailing List et les tester. Cela signifie que de nombreux problèmes sont éliminés bien avant d’affecter les utilisateurs. Linus Torvalds, créateur de Linux, teste fréquemment les nouvelles versions du kernel intégrant les dernières pulls requests des développeurs. Et Torvalds n’a pas peur de faire savoir aux développeurs que quelque chose ne fonctionne pas. Comme le résument Kroak-Hartman et Corbet, « Peu de choses peuvent se targuer d’être aussi rapides qu’un développeur dont le dernier patch a cassé le poste de travail de Linus. » Le nombre de contributeurs bénévoles semble se stabiliser et représente maintenant 8,2% des contributions, une légère augmentation par rapport aux 7,7% de l’année dernière. Le chiffre a chuté de manière significative depuis 2014, date à laquelle il s’élevait à 11,8%. Cela s’explique par le fait que les contributeurs du Kernel Linux n’ont plus vraiment de mal à trouver du travail. Plus de la moitié des développeurs ayant contribué au kernel dans le courant de l’année dernière étaient payés pour le faire, et ce depuis leur premier patch. 


Le cycle de développement de la version 4,9 était l’un des plus chargés de l’histoire du développement du kernel, avec un nombre record de correctifs. 4.12 tient de son côté le record pour le nombre de développeurs impliqués ainsi que le nombre de primo contributeurs. Les rumeurs faisant état d’un vieillissement de la communauté des contributeurs au kernel sont exagérées. Après toutes ces années, la communauté continue de se développer. « Le kernel Linux est l’un des projets open source les plus important et les plus réussi ayant pu voir le jour. Le taux de changements apportés et le nombre de contributeurs montrent qu’une communauté active s’est formée, ce qui permet une évolution constante du noyau afin de l’adapter aux différents environnements ou celui-ci est utilisé. Ces chiffres continuent de grandir, tout comme le nombre de développeurs et d’entreprises impliquées dans ce processus. Le développement du kernel prouve donc qu’il est capable de passer à l’échelle et de doubler sa vitesse de développement sans le moindre problème » concluent les auteurs du rapport.

Cet article est une traduction de "Who's building Linux in 2017?" initialement publié sur ZDNet.com

more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Linux Foundation Debuts Community Data License Agreement #ToSupportCollaborativeCommunities

Linux Foundation Debuts Community Data License Agreement #ToSupportCollaborativeCommunities | Territoire 2.0 | Scoop.it
Open source software communities have shown the power of open collaboration building some of the world’s most important software assets together. There are communities also looking to collaboratively build datasets that can be shared and developed in a very similar model to software. For example, machine learning and AI systems require vast amounts of training data. Governments are looking for ways to establish public-private sharing of data. The challenge is that intellectual property systems around the world treat data different than software. Our common OSI-approved licenses do not work well applied to data. Our communities wanted to develop data license agreements that could enable sharing of data similar to what we have with open source software. The result is a large scale collaboration on two licenses for sharing data under a legal framework which we call the Community Data License Agreement (CDLA). There are two initial CDLA licenses. The CDLA-Sharing license was designed to embody the principles of copyleft in a data license. In general, if someone shares their data, the CDLA-Sharing agreement puts terms in place to ensure that downstream recipients can use and modify that data, and are also required to share their changes to the data. The CDLA-Permissive agreement is similar to permissive open source licenses in that the publisher of data allows anyone to use, modify and do what they want with the data with no obligations to share any of their changes or modifications. These two licenses establish the framework for collaborative sharing of data that we have seen proven to work in open source software communities. The context document should be helpful for understanding the framework to apply the CDLA. We encourage communities and organizations seeking to share data to review the Community Data License Agreements and see if they fit your needs and use cases.
more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Elasticsearch - moteur de recherche et d'analyse: de tweets de campagnes politiques... #OpenSource

#AnalyseLinguistique Elasticsearch est un moteur de recherche et d'analyse RESTful distribué, capable de résoudre un nombre grandissant de cas d'utilisation. Élément clé de la Suite Elastic, il stocke de manière centralisée vos données et vous permet d'être préparé en toutes circonstances.


https://www.elastic.co/fr/blog/author/julien-longi

Elasticsearch utilisé au centre de l’application citoyenne #Idéo2017 Par Julien Longi

Le projet

Le projet #Idéo2017, financé par la Fondation UCP, associe des chercheurs du laboratoire AGORA et du laboratoire ETIS (ENSEA / UCP / CNRS UMR 8051). L'objectif du projet était de créer un outil d'analyse des tweets politiques lors de campagnes politiques. Partant d'acquis et de développements d'outils à partir d'un corpus de tweets déjà constitué (autour des élections municipales 2014), ce projet a permis la création d'une plateforme en ligne qui permet de traiter, avec des délais relativement courts, les messages produits en lien avec l'actualité politique (meetings, débats, émissions télévisées, etc.). Les citoyens ou journalistes peuvent ainsi effectuer leurs propres requêtes et obtenir des résultats compréhensibles grâce à cette interface qui rend accessible des analyses et critères linguistiques et informatiques habituellement complexes à appréhender. 


Elasticsearch pour #Idéo2017

Le but de la plateforme #Idéo2017 est de proposer deux fonctionnalités principales à ses utilisateurs : (1) une analyse linguistique des tweets (des 11 candidats à l'élection présidentielle) qui est créée partiellement à l'aide des scripts développés dans l'outil d'analyse textuelle Iramuteq (http://www.iramuteq.org/), et (2) un moteur de recherche disposant de fonctionnalités avancées telles que la navigation par facettes pour explorer le corpus des tweets.


L'analyse linguistique

Dans le cadre de l'analyse linguistique, nous proposons deux types d'analyse : une analyse par candidat - l'utilisateur peut analyser tous les tweets d'un candidat choisi parmi les 11, et une analyse par mot (ou thème) - l'utilisateur peut analyser tous les tweets qui contiennent un mot spécifique choisi parmi une liste prédéfinie de 13 mots. Parmi les problèmes techniques que nous avons rencontrés lors du développement de la fonctionnalité d'analyse linguistique, le plus important concerne la recherche d'un mot dans un texte (utilisée dans notre plateforme par exemple dans l'analyse par mot décrite ci-dessus). En effet, la recherche en plein texte risque de récupérer des résultats non pertinents et cela peut influencer les résultats des analyses linguistiques. Par exemple : une recherche avec le mot "loi" peut produire des résultats qu'on appelle « faux positifs » du type « emploi », « exploitation ». De plus, étant donné que nous mettons en place des analyses linguistiques, il serait nécessaire de pouvoir réaliser des recherches prenant en compte l'aspect linguistique des mots (par exemple, si nous cherchons le mot « travail », nous souhaiterions avoir comme retour les tweets contenant les mots « travail », « travailleur », etc.). Egalement, dans notre plateforme, nous souhaitons stocker les tweets dans une base de données, mais malheureusement les bases de données classiques ne proposent pas une fonctionnalité efficace de recherche d'un mot dans un texte ; ainsi, nous avions besoin d'un outil puissant qui nous permette de réaliser des recherches linguistiques en plein texte dans les tweets. Lors de nos recherches, nous nous sommes tournés vers Elasticsearch car il répond aux problèmes présentés ci-dessus par l'utilisation d'un algorithme de pertinence basé sur le modèle TF/IDF qui est très utilisé dans la recherche d'information. Cela nous permet de ne récupérer, lors d'une recherche, que les tweets les plus pertinents correspondant aux critères de recherche. Un moteur de recherche avancé avec Elasticsearch Le moteur de recherche développé dans la plateforme #Idéo2017 a pour but de proposer à l'utilisateur des recherches avancées avec navigation par facettes sur la totalité des tweets. Une recherche avec facettes permet à l'utilisateur de filtrer les tweets en choisissant un ou plusieurs critères (les facettes). Dans notre plateforme, nous avons intégré trois types de facettes : la première est une facette par candidat où l'on pourra facilement filtrer les résultats pour ne voir que les tweets émanant d'un candidat particulier, la deuxième est par hashtag, et la dernière par mentions. Par exemple: si nous cherchons le mot « université », nous pouvons savoir quels sont les candidats qui parlent le plus de l'université, les hashtags liés à ce mot et les utilisateurs qui ont été mentionnés dans les tweets liés au mot « université ». Exigences de performances Notre projet est destiné au grand public. Aussi, la plateforme peut recevoir un nombre important de requêtes simultanées, et donc, le système choisi doit être capable de gérer ce volume de requêtes tout en garantissant d'excellents temps de réponse. Pour répondre à ces problématiques, nous avons opté pour l'utilisation d'Elasticsearch qui propose une représentation de l'information sous la forme d'un index clusterisé ce qui nous permet non seulement de faire des recherches textuelles, mais aussi d'agréger ces données sur plusieurs facettes. De plus, pour garder notre application fonctionnelle même en cas d'un nombre important de requêtes, Elasticsearch propose la création d'un cluster avec plusieurs nœuds en répartissant la charge des requêtes entre les nœuds, et en réalisant une sauvegarde automatique et répliquée des données. Architecture Dans la Figure 1, nous présentons l'architecture globale de la plateforme développée, ainsi que la relation entre les éléments technologiques centraux. Nous avons récupéré les tweets des 11 candidats suite à un protocole que nous avions déjà mis en place pour nos travaux précédents (Longhi et al. 2014, corpus Polititweets). Après la récupération des tweets, nous stockons toutes les informations liées à ces derniers dans une base de données centrale mongoDB, et ensuite nous sélectionnons les informations dont nous avons besoin pour indexer les tweets, comme par exemple le contenu du tweet, le compte de la personne qui a posté le tweet (twittos), sa date de création, ou le nombre de retweets. Pour la mise en place de l'index, notre choix s'est porté vers Elasticsearch car pour l'indexation, il propose plusieurs types de configurations pour réaliser le mapping (qui indique comment les données sont stockées et indexées) : la configuration analyzer est proposée pour définir la langue du corpus et l'analyseur peut décomposer le text en tokens selon la langue choisie. Pour notre plateforme nous avons utilisé la langue française. la configuration normalizer permet de transformer tous les mots en minuscules ou en code ASCII, etc. L'index construit ci-dessus sera exploité dans un premier temps dans le développement des analyses linguistiques. A cette fin, nous avons utilisé l'API Elasticsearch-PHP pour faire les analyses en temps réel. Quand l'utilisateur choisi un candidat ou un mot, le corpus se crée automatiquement (en sélectionnant uniquement les tweets du candidat choisi ou les tweets qui contiennent le mot choisi), et il sera mis à jour pour pouvoir appliquer nos analyses sur un sous-ensemble du corpus de tweets. architecture.pngFigure 1 : Architecture globale de la plateforme #Idéo2017. Dans un deuxième temps, l'index construit est utilisé dans la mise en place de notre moteur de recherche à facettes décrit dans la section précédente. Pour cela, nous avons utilisé ElasticUI qui est développée en AngularJS et qui nous a permis de mettre en place nos facettes et les résultats des recherches. L'utilisateur a le choix entre faire des recherches simples sur un mot, ou croiser les recherches simples avec le choix d'un candidat, d'un hashtag ou d'une mention, et les résultats seront affichés en temps réel. Nous avons opté pour un cluster avec deux nœuds pour profiter de la gestion efficace du cluster réalisée par Elasticsearch, comme par exemple : la sauvegarde automatique et répliquée des données, l'interrogation via les API REST et la répartition de la charge entre les deux nœuds. Nous envisageons d'augmenter le nombre de nœuds dans notre cluster pour les prochaines utilisations de notre plateforme (élections législatives, etc.). En plus de la précision, l'une des caractéristiques les plus importantes pour le choix d'Elasticsearch, c'est sa rapidité. Au niveau de la récupération d'une grande quantité de données. Elasticsearch nous a permis de surmonter le problème de lenteur qu'on peut avoir au niveau de page web lors de la récupération d'un tel volume de données. Afin de nous différencier du moteur de recherche présent sur l'interface de Twitter, nous avons conçu notre outil de recherche comme un système hybride, associant les réponses des tweets d'une recherche en temps réel à une synthèse de plusieurs tweets par agrégation de l'information via les facettes et les calculs linguistiques de clustering ou de nuages de mots. Ainsi pour un mot ou un thème particulier, notre objectif est de donner accès aux tweets originels pour chaque candidat mais également de connaître la répartition exacte du nombre de tweets par candidat ou par grande thématique. Cette connaissance de la distribution de tweets nous offre une contextualisation globale pour chaque requête car notre objectif est autant de réaliser un moteur de recherche que d'offrir à nos utilisateurs une plateforme de veille concurrentielle entre les différentes stratégies de communication des candidats. Rappelons que ces deux applications (moteur et système de veille) partent de postulats opposés, en effet si le moteur de recherche ambitionne de lutter contre le bruit (toutes les réponses doivent être le plus pertinentes possibles), un système de veille comparative, type benchmark, se fixe comme ambition de réduire le silence (aucun tweet pertinent ne doit échapper à l'usager). Or lorsque l'on tente de réduire le silence, on augmente le bruit, et plus on lutte contre le bruit, plus le silence devient assourdissant. En sciences de l'information, on évalue cette complexité par le taux de précision et de rappel qui sont deux équations qui modélisent parfaitement ces valeurs diamétralement opposées que sont le bruit et le silence. Pour relever ce défi, nous nous sommes inspirés des applications de BI (business intelligence), d'outils de reporting et de système de cartographie de l'information. Habituellement, réservés à des outils de dashboarding ou de back office, nous proposons au grand public une extension des résultats de requêtes par l'intégration visuelle et progressive d'une information synthétique par analyse linguistique directement accessible sur notre front office. Et la sécurité dans tout ça ? L'interface du moteur de recherche développé est basée sur le framework AngularJS, et, par conséquent, les données d'Elasticsearch seront ouvertes au public. Afin d'empêcher l'accès à nos données, nous avons mis en place un contrôle d'accès à nos données en appliquant une restriction sur les permissions d'accès à Elasticsearch avec l'attribution de la permission lecture-seule au public. Elasticsearch et Kibana (dont l'utilisation sera décrite ci-dessous) utilisent respectivement les ports 9200 et 5601 ; ainsi, pour éviter l'accès direct du client à l'index à travers les ports, nous avons mis en place, comme indiqué dans la Figure 2, un reverse proxy qui permet de contrôler toutes les demandes d'accès directes de l'extérieur et qui n'autorise que la méthode GET. Ce proxy d'Apache devient un intermédiaire pour crypter le trafic entrant. Donc, le trafic externe sera converti en trafic interne entre Apache et Elasticsearch. architecture-figure-2.pngFigure 2 : Schéma du contrôle d'accès client-serveur. Et pour visualiser nos données…? Kibana, évidemment ! Nous utilisons Kibana dans le but de réaliser des analyses sur nos données textuelles sous forme de graphes. La figure 3 montre l'évolution de la moyenne par mois du nombre de retweets pour chaque candidat durant les six derniers mois. Nous pouvons remarquer un pic de retweets pendant le dernier mois qui précède l'élection présidentielle pour plusieurs des candidats, les premiers étant Philippe Poutou, Jean-Luc Mélenchon et Benoît Hamon. figure-3-graph.pngFigure 3 : Evolution de la moyenne par mois du nombre de retweets pour chaque candidat durant les six derniers mois. La figure 4 se compose de deux diagrammes camembert : celui de l'intérieur représente la décomposition des 11 candidats selon le nombre de tweets et celui de l'extérieur représente le pourcentage des cinq utilisateur Twitter les plus mentionnés par les candidats. pie-chart-figure-4.pngFigure 4 : Décomposition des candidats selon le nombre de tweets et le pourcentage des cinq utilisateur Twitter les plus mentionnés par les candidats. La figure 5 est un diagramme à bandes verticales ; ici nous comparons les 11 candidats par rapport aux cinq hashtags les plus utilisés : #BourdinDirect, #Macron, #Presidentielle2017, #Fillon, #LeGrandDébat.

https://www.elastic.co/fr/blog/elasticsearch-utilise-au-centre-de-l-application-citoyenne

more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Conférence en Webdiffusion : Logiciels libres et normes ouvertes dans l'administration publique 25 oct

Conférence en Webdiffusion : Logiciels libres et normes ouvertes dans l'administration publique 25 oct | Territoire 2.0 | Scoop.it

Eventbrite – Logiciels libres et normes ouvertes dans l'administration publique (Webdiffusion Publique) – Mercredi 25 octobre 2017 – Obtenez des informations sur les événements et l'inscription.

13:30 – 15:30 HAE

Nous progressons vers un gouvernement ouvert et la population se mobilise, mais nous comptons encore beaucoup sur les technologies brevetées et les normes exclusives pour mener nos activités de base et exécuter nos principaux programmes. Comment le gouvernement du Canada peut-il adopter à plus grande échelle les logiciels libres et les normes ouvertes pour mettre au point ses outils et ses solutions? Nous vous invitons à venir entendre des spécialistes expliquer simplement ce que sont les logiciels libres et les normes ouvertes et pourquoi les principaux intervenants du gouvernement devraient s'engager à adopter ces concepts. Au cours de cette discussion, les participants prendront connaissance de certains défis et mythes en ce qui concerne les logiciels libres au gouvernement. Ils examineront aussi les solutions possibles au sein même de notre ensemble actuel de programmes et de politiques et auront la possibilité d'échanger des idées avec les spécialistes sur des sujets connexes. 


Renseignements sur l'événement

Cette activité d’apprentissage offerte à tous par webdiffusion. Vous allez recevoir le lien pour accéder à la webdiffusion quelques jours avant l’événement. Veuillez prendre note que l’événement aura lieu en anglais avec interprétation en français. 


Ottawa

Date et heure : Le 25 octobre 2017 | de 13 h 30 à 15 h (HAE) 


Conférenciers :

Olivia Neal, Directrice exécutive, Changement numérique, Direction générale du dirigeant principal de l'information, Secrétariat du Conseil du Trésor du Canada

Lena Trudeau, Conseillère principale, Service numérique canadien; Fondatrice et PDG de Nuage Cloud Strategies

Denis Skinner, Dirigeant principal de l'information et directeur général, Services de technologie de l'information, Commission de la fonction publique du Canada 


Lieux :

Offert partout au Canada par webdiffusion L'École encourage les apprenants à regarder les webdiffusions en groupe afin d'optimiser la bande passante et de favoriser la discussion. Pour réduire le risque de problèmes de transmission, vérifiez la connectivité au préalable à l'aide du lien pour les essais. de l'École. http://the.canwebcast.net/test/csp/

more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Les grandes escroqueries (2/4) : Madoff, Ponzi : les arnaques en pyramides

Les grandes escroqueries (2/4) :  Madoff, Ponzi : les arnaques en pyramides | Territoire 2.0 | Scoop.it
Après l'art, la finance. L'escroquerie touche tous les domaines et nous revenons sur un cas fameux de ces dernières années, celui de Bernard Madoff dont le montage financier est directement basé sur le système de Charles Ponzi qui avait sévi dans les années 20, à Boston.
more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Appel à candidature : Contrat doctoral sur projet financé (MEN) #UniversitéLille3 #Numérique

Appel à candidature : Contrat doctoral sur projet financé (MEN) #UniversitéLille3 #Numérique | Territoire 2.0 | Scoop.it
Appel à candidature
Contrat doctoral sur projet financé (MEN)
 Projet « Cré@tion » Collaboration, RÉflexion, Activités et Travaux InnOvants Numériques) - Domaine de compétences : sciences de l’éduc ation, technologies éducatives, génie industriel, informatique , analyse de l’activité - Institution d’accueil : université Lille 3, laboratoire CIREL - PROFEOR - Projet de thèse proposé par : François Villemonteix, professeur des universités ( Université Lille 3 - Laboratoire CIREL ) et Thierry Gidel, maître de conférence s en gestion (U niversité de T echnologie de C ompiègne – Laboratoire COSTECH ) - Durée du contrat : 3 ans, allocation attribuée à compter du XX (rémunération nette : environ 30 000 eu ros brut/an )
Résumé du projet de recherche dans lequel s’inscrira le travail doctoral
Contexte du projet Le projet Cré@tion porte sur le travail collaboratif et son apprentissage autour d’instruments tactiles numériques collectifs , permettant une interaction simultanée de plusieurs personnes sur une même surface partagée . La production de solutions technologiques matérielles collectives et de grande dimension fait l’objet de recherches, tout comme la production de démarches méthodologique s appropri ées à la mise en œuvre de pratiques collectives d’élaboration et de production , souvent dans un contexte de travail d’ingénieurs ( Kendira 2011, Jones 2012, Guerra 2013, 2017 ) L es partenaires du projet (académie d’Amiens , UTC, Lille 3) souhaitent voir souhaitent voir comment et en quoi l ’actualisation des pratiques collectives avec ce type d’instrumentation et de méthode s , pourrait conduire à des transformations des pratiques pédagogiques enseignantes au collège et au lycée et à des apprentissages plus efficients de la part des élèves. L’idée est bien de favoriser l’évolution des pratiques et d’identifier comment accompagner cette évolution Enjeux et objectifs du projet Le projet vise à développer des pratiques pédagogiques collaboratives instrumentées e n milieu scolaire avec les technologies numériques tactiles, inspirée s de formes de travail de type « projet ». Il propose de concevoir et mettre en place dans des lieux - ressources ( Halle numérique de l’ UTC) des environnements techniques tactiles innovants (Tables et tableaux tactiles de grande dimension) combinés à des instruments individuels (tablettes tactiles) munis de logiciels adaptés, afin de conduire à des démarches pédagogiques collectives pour la résolution de problèmes et la mise en œuvre de situ ations efficientes du point de vue des apprentissages des élèves. Ce projet fait référence aux courants de recherche sur le travail 2 coopératif assisté par ordinateur (TCAO), Computer Supported Cooperative Work (CSCW), sur sur les apprentissages collaborat ifs instrumentés (ACI), Computer Supported Collaborative Learning (CSCL) (Cardon, 1997 ; Baudrit, 200 7 ; Bruillard, 2008) Il prévoit un volet d’accompagnement des élèves et des enseignants, visant non seulement l’appropriation des instruments numériques, mais également la production de situations pédagogiques collectives de résolution de problèmes, dérogeant aux pratiques scolaires cla ssiques. Les questions posées sont les suivantes : Quels environnements de travail collectif (matériels, logiciels et méthodes) basés sur les technologies tactiles concevoir et mettre en œuvre pour conduire les élèves à travailler collectivement et collabo rer au profit d’apprentissages individuels ? Quelle valeur ajoutée les instruments tactiles utilisés apportent - ils aux pratiques collectives de résolution de problèmes et quels sont les effets de ces pratiques avec ces instruments sur les apprentissages in dividuels ? A quels changements ces pratiques collectives conduisent - elles, du côté des pratiques enseignantes ? Ainsi, quels accompagnement s , en formation initiale et continue mettre en place pour favoriser l’appropriation et la mise en œuvre de ces démar ches, souhaitées par les programmes et en particulier la reforme récente du collège ?

Enjeux scientifiques
Dans une perspective de recherche orienté e par la conception (ROC) (Sanchez & Monod - Ansaldi, 2015) , il s’agirait de soume ttre à l’analyse les utilisations de ces instruments (tables tactiles horizontales et verticales, logiciels de travail collaboratif adapté, tablettes tactil es sur environnements partagés) co - localisés, en contexte pédagogique lors de l’élabora tion et la co nduite de projets , en montrant notamment en quoi ces environnements technologiques informatisées (matériels et logiciels) favorisent par leur utilisation la créativit é et la production collective tout en permetta nt le développement de « l‘agentivité » ( agentivity ) des acteurs en présence (Engestr ö m & Sannino, 2013) . Ces in struments sont susceptibles de jouer un rôle social que nous pourrions qualifier d’ inclusif et d’offrir des possibilités ludiques d’interaction. Elles viendraient compléter les écrans individuels qui réduise nt les interact ions directes entre les sujets, en particulier les conversation s en face - à - face avec croisements perceptif (Turkle, 2015) . En matière d’apprentissage, la question de l’efficacité du travail collaboratif par rapport au travail individuel est une question ancienne, réactivée par la mise en œuvre de dispositifs instrumentés informatisés de plus en plus nom breux et complexes. La notion de collaboration en éducation s’appuie sur des théories essentiellement cognitivistes dans leur dimension sociale. L’une des idées, initialement développées, était celle selon laquelle la participation à certaines interactio ns sociales produisaient un nouvel état individuel rendant possible, à son tour, un type d’interactions sociales plus sophistiqué (Doise & Mugny, 1981) . Les situations d’apprentissage collectif créen t les conditions d’un conflit socio - cognitif où les apprenants extériorisent leurs connaissances préalables. L’apprentissage peut alors profiter de la diversité des points de vue et de l’éventail des représentations d’un problème à résoudre, que permet cet te confrontation collective. Il y a donc un caractère indissociable entre pôle cognitif et social de l’apprentissage (Perret - Clermont et al., 1996 ; Spiro et al. , 1991) . En gros, pour l’apprenant, le discours social, pour interagir avec les autres, cohabite avec un autre discours, intra - psychologique, permettant de réfléchir, de penser, pour réguler son action . Ainsi au cours de situations de résolution collaborative d’un problème, la compréhension de celui - ci (ou appropriation) par chaque protagoniste donne lieu à ce qu’il attribue une signification aux actions ou propos de l’autre, 3 selon son propre cadre conc eptuel (Rogoff, 1991) . Les processus cognitifs d’apprentissage sont donc situés socialement (Lave & Wenger, 1998) l’environnement faisant également partie intégrante de l’activité cognitive. L’activité sociale permet des échanges, des « confrontations » épistémiques interindividuelles. Au delà, la recherche montre l’ existence d’un facteur d’intelligence collective expliquant la performance d’un groupe sur une grande variété de tâches (Woolley et al., 2010) . Ce facteur serait dépendant de différents facteurs sociaux et de modalités d’organisation du travail. De plus dans le cadre d’une activité instrumentée avec des technologies, les processus co gnitifs en jeu sont distribués, entre hommes et machines (Pea, 1991)

Objectifs de la thèse
L’objectif de la thèse sera l’apport aux sciences de l’éducation d e modèles d’intelligibilité transférables, portant sur les dynamiques en jeu lors des situations c ollaboratives instrumentées présentielles de résolution de problème, sur les changements qu’elles induisent, à la fois sur les apprentissages des élèves, mais aussi sur les postures, les rôles et la division du travail dans un collectif élèves/enseignants en éducation formelle. C e faisant, le ou la doctorante aura à s’interroger sur les environnements numériques les plus appropriés pour répondre aux enjeux d’enseignement et d’apprentissages des situations traitées. La méthode retenue s’inspirerait de la re cherche ori entée par la conception. Le ou la doctorant - e sera intégré - e dans l’équipe projet « Cré@tion » dont l’objectif général est de montrer l’existence de processus dynamiques conduisant à la construction de significations lors de situations de travai l collaboratif répondant à des critères d’efficacité et d’efficience. en établissement scolaire et donc se conformer à un certain nombre d’obligations (devoir de réserve, anonymat) et se plier aux principes fondamentaux du système éducatif et dans le cadre réglementaire de l' école)

Engagement du - de la doctorant - e
Ce projet est porté par la délégation académique du numérique éducatif (DANE) du rectorat d’Amiens, il est financé par le ministère de l’éducation nation ale (Direction du numérique éducatif - DNE). Il a pour partenaires l’université de Lille 3 (laboratoire CIREL - PROFEOR) , et l’université de technologie de Compiègne (Laboratoire COSTECH) . Il s’inscrit dans le cadre du projet « incubateurs numériques » de l’ académie d’Amiens . Le - la candidat - e s’inscrira pleinement dans le s objectifs du projet Cré@tion et développer a une problématique concernant les pratiques pédagogiques collectives instrumentées en cohérence avec les attendus du projet. Il contribuera, en pa rticulier avec l’ingénieur - e de recherche recruté par l’université de Compiègne pour ce projet, à l’élaboration d’outils de re cueil et d’analyse des données. Il - elle participera aux activités de l’école doctorale de l’université de Lille - 3, aux manifestat ions scientifiques et d’interface liées au développement du projet (journées d’ét udes, colloques internationaux) et aux réunions ou journées de restitution devant les différentes instances académiques ou ministérielles. La maîtrise de l’anglais est requise . Le - la doctorant - e - sera amené - e à aller en établissement scolaire et donc se conformer à un certain nombre d’obligations (devoir de réserve, anonymat) et se plier aux principes fondamentaux du système éducatif et dans le cadre réglementaire de l' école)
Bibliographie
Baudrit, A. (2007). L’apprentissage collaboratif . De Boeck Supérieur. Consulté à l’adresse http://www.cairn.info/l - apprentissage - collaboratif -- 9782804153175.htm Bruillard, E. (2008). Travail et apprentissage collaboratifs dans des formations universitaires de type hybride. Éléments de réflexion. Education – Formation , 288 , 55 – 64. Cardon, D. (1997). Les sciences sociales et les machines à coopérer. Une approche bibli ographique du Computer Supported Cooperative Work (CSCW). Réseaux , 15 (85), 13 ‑ 51. https://doi.org/10.3406/reso.1997.3134 Doise, W., & Mugny, G. (1981). Le développement social de l’intelligence (Vol. 1). InterEditions Paris. Consulté à l’adresse http://use rs.skynet.be/gerard.pirotton/Textes - site - DW08/Dvpt - Social - Intelligence - doise - mugny - ligne.pdf Engeström, Y., & Sannino, A. (2013). La volition et l’agentivité transformatrice : perspective théorique de l’activité. Revue internationale du CRIRES : innover da ns la tradition de Vygotsky , 1 (1), 4 ‑ 19. Guerra, Andrea Luigi; Gidel, Thierry; Vezzetti, Enrico, A study on the impact of hover platforms on design teams collaborative behaviors during collocated collective early preliminary design activities In: Proceedin gs of the 21st International Conference on Engineering Design (ICED17), Vol. 8: Human Behaviour in Design, Vancouver, Canada, 21. - 25.08.2017. Guerra Andrea Luigi, Thierry Gidel, Atman Kendira, Enrico Vezzetti, Alistair Jones, and others. 2013. “Co - Evolutio n of Design Tactics and CSCWD Systems: Methodological Circulation and the TATIN - PIC Platform.” DS 75 - 9: Proceedings of the 19th International Conference on Engineering Design (ICED13), Design for Harmonies, Vol. 9: Design Methods and Tools, Seoul, Korea, 1 9 - 22.08. 2013. Jones Alistair, Kendira Atman, Gidel Thierry, Moulin Claude , Lenne Dominique , Barthès Jean - Paul , and Guerra Andrea Luigi . 2012. “Evaluating Collaboration in Table - Centric Interactive Spaces.” In AVI Workshop on Designing Collaborative Intera ctive Spaces (DCIS 2012). Capri, Italy. Kendira, Atman, Thierry Gidel, Alistair Jones, Dominique Lenne, Jean - Paul Bartès, and Claude Moulin. 2011. “Conducting Preliminary Design around an Interactive Tabletop.” In Proceedings of the 18th International Conference on Engineering Design, 2:366 – 76. (Award: ICED11 Reviewers’ Favourite). Lave, J., & Wenger, E. (1998). Communities of practice. Retrieved June , 9 , 2008. Perret - Clermont, A. - N., Grossen, M., Nicolet, M., & Schubauer - Leoni, M. L. (1996). La constru ction de l’intelligence dans l’interaction sociale. Consulté à l’adresse http://users.skynet.be/gerard.pirotton/Textes - site - DW08/Construc - Soc - Intelligence - AN - PC - present - ligne.pdf Sanchez, É., & Monod - Ansaldi, R. (2015). Recherche collaborative orientée par la conception. Education & didactique , Vol. 9 (2), 73 ‑ 94. Spiro, R. J., Feltovich, P. J., Jacobson, M., & Coulson, R. L. (1991). Cognitive flexibility and hypertext: Advance Knowledge acquisition in ill - structured domains. Educational Technology , 31 (5), 24 – 33. Turkle, S. (2015). Reclaiming Conversation: The Power of Talk in a Digital Age (1 edition). New York: Penguin Press. 5 Woolley, A. W., Chabris, C. F., Pentland, A., Hashmi, N., & Malone, T. W. (2010). Evidence for a collective intelligence factor in the performance of human groups. science , 330 (6004), 686 – 688.
more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

IPC 2017 “Phytotechnologies: New Sustainable Solutions for Environmental Challenges, Sep 25 - 29

IPC 2017 “Phytotechnologies: New Sustainable Solutions for Environmental Challenges, Sep 25 - 29 | Territoire 2.0 | Scoop.it

Montréal welcomes the 14th International Phytotechnologies Conference, from September 25 to 29, 2017 On behalf of the International Phytotechnology Society (IPS http://phytosociety.org/), we would like to invite you to the 14th International Phytotechnologies Conference to be held at Hotel OMNI Mont Royal, prime location in the heart of downtown Montréal, Canada, September 25-29, 2017. Since 2004, the IPS’s annual conferences have been an opportunity for research scientists, engineers, industrials and practitioners from all over the world to present recent advances in the field of phytotechnologies. Phytotechnologies represent a set of strategic uses of plants and their associated microorganisms to address environmental issues. Original contributions will be presented in plenaries, parallel sessions on dedicated specific topics as well as poster sessions. The 14th International Phytotechnologies Conference will coincide with the 375th anniversary of the founding of Montréal. Conference participants will have the opportunity to benefit from the exciting, celebratory atmosphere as well as several activities planned in the context of this anniversary. We are inviting you to join us on Monday, September 25th for the Icebreaker cocktail! We look forward to welcoming you to Montréal for the 14th International Phytotechnologies Conference. The Organizing Committee


Du 25 au 29 septembre 2017, Montréal accueillera la 14th International Phytotechnologies Conference


Au nom de l’International Phytotechnology Society (IPS http://phytosociety.org/), nous vous invitons à la 14th International Phytotechnologies Conference qui se tiendra à l'Hôtel OMNI Mont-Royal situé au cœur du centre-ville de à Montréal, Canada, du 25 au 29 septembre 2017. Depuis 2004, les conférences annuelles de l’IPS invitent les scientifiques, ingénieurs, industriels et praticiens du monde entier à venir présenter et discuter des plus récentes avancées dans le domaine des phytotechnologies. Les phytotechnologies représentent un ensemble de stratégies utilisées pour résoudre des problèmes environnementaux par l’utilisation de plantes et des microorganismes qui leur sont associés. L’ensemble des contributions originales se fera sous la forme de séances plénières, d’ateliers tenus en parallèle et dédiés à des sujets spécifiques de même que par la tenue de sessions d’affiches. La 14th International Phytotechnologies Conference coïncide avec le 375e anniversaire de la fondation de la Ville de Montréal. Les participants à la Conférence auront ainsi l’occasion de profiter d’une atmosphère de fête et d’un grand nombre d’activités qui sont planifiées pour marquer cet anniversaire. Nous vous invitons à vous joindre à nous pour le cocktail d'ouverture le lundi 25 septembre prochain! Nous sommes impatients de vous accueillir à Montréal pour la 14th International Phytotechnologies Conference. Le Comité Organisateur

more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

The Simulation of Urban MObility User Conference 2018 takes place May, 14-16, 2018 in Berlin #SUMO 

The Simulation of Urban MObility User Conference 2018 takes place May, 14-16, 2018 in Berlin #SUMO  | Territoire 2.0 | Scoop.it
#OpenSource  http://www.sumo.dlr.de/userdoc/Downloads.html
"Simulation of Urban MObility" (SUMO) is an open source, highly portable, microscopic and continuous road traffic simulation package designed to handle large road networks. SUMO is licensed under the GPL. If you use SUMO, please support its development by telling us about your Publications. The content of this Wiki is freely editable according to the wiki style. That means, whenever You find a solution to a problem mentioned on the mailing lists, feel free to add an article to this Wiki or an entry to the frequently asked questions. Write access is restricted. In order to be allowed to edit this Wiki, please drop us an email with your sourceforge-account name via the sumo-user mailing list. Here is a short help on editing articles. The documentation in this wiki is continuously updated and always refers to the latest development version. Documentation for a specific release version of SUMO is included in the download of that version.
more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Serious games : la gamification au service de notre santé | Sanofi #Socrate #XTorp

Serious games : la gamification au service de notre santé | Sanofi #Socrate #XTorp | Territoire 2.0 | Scoop.it
https://www.socrate-challenge.fr/index.html
http://www.x-torp.com/fr/accueil/
Vous avez certainement déjà entendu parler de « serious games ». L’objectif de ces « jeux sérieux » ? Utiliser un support ludique pour transmettre des informations complexes et ce, quel que soit le domaine concerné. La gamification s’impose ainsi aujourd’hui comme un moyen privilégié pour communiquer de façon percutante, éducative et ludique sur les enjeux de la santé.

Le formidable potentiel de la gamification
Jouer possède des vertus cachées ! Largement inspirée de l’univers des jeux vidéo, la gamification (ou ludification en français) fonctionne sur un principe simple : utiliser le jeu et ses règles dans un domaine qui en est, a priori, plutôt éloigné. Initialement dédiés au secteur militaire pour des exercices de simulation, les serious games se sont rapidement imposés au sein des entreprises, au profit de la formation des collaborateurs. Aujourd’hui, la santé, bien sûr, mais aussi la formation, les transports, l’économie… Tous les sujets peuvent s’appuyer sur ces outils digitaux ludiques et interactifs, proposant des parcours d’apprentissage de plus en plus efficients. Le bénéfice à la clé ? S’amuser, oui, mais toujours pour mieux apprendre, agir et s’informer ! A travers ces supports, les marques cherchent ainsi à démocratiser certaines problématiques, parfois difficiles à aborder, et à toucher le plus efficacement possible leurs publics. Sous forme de sites Web ou d’applications mobiles, les serious games s’imposent aujourd’hui comme des outils d’action et de communication à part entière !

Les serious games dédiés à la santé au cœur de l’innovation digitale
La gamification n’a pas laissé la santé de côté ! Dans ce domaine, les serious games destinés aux médecins comme aux patients se multiplient à vitesse grand V. Et les exemples ne manquent pas : pensons au CHU de Nantes et X-Torp, jeu pour les personnes atteintes de la maladie d’Alzheimer au stade léger ou encore à une société toulousaine avec son jeu Salvum permettant de se former aux gestes qui sauvent. Un succès qui grandit et a pris toute sa place lors du dernier Futur en Seine, organisé à Paris du 7 au 10 juin 2017. La santé connectée se trouvait ainsi au cœur des discussions et des démonstrations menées autour de l’innovation digitale. Présent à cette nouvelle édition parisienne pour présenter ses derniers prototypes de e-solutions, Sanofi a profité de ces quelques journées pour relayer les dernières avancées du secteur : un réfrigérateur miniature pour le transport de médicaments fragiles ou encore l’utilisation de l’intelligence artificielle pour améliorer le suivi ambulatoire des patients atteints de cancer. Mais Futur en Seine était également l’occasion pour Sanofi Genzyme de présenter une innovation qui lui est propre : « Socrate », son nouveau serious game conçu pour aider et accompagner les médecins généralistes à dépister des maladies rares.

Lumière sur… Socrate Challenge
Généralistes, radiologues, rhumatologues, internistes, psychologues… « Docteur, qu’est-ce que j’ai ? ». Une question qui parfois peut mettre des mois, voire des années, à trouver une piste de réponse mais à laquelle le serious game Socrate entend bien apporter une solution.
Pensé comme un quiz et un jeu de piste interactif, Socrate rend intuitive et ludique la réflexion des médecins sur les cas de certains patients, dont les symptômes peuvent évoquer la présence d’une maladie rare non dépistée.
A l’instar de Socrate qui affirme qu’il faut douter pour savoir, le serious game de Sanofi Genzyme souhaite instiller, de façon ludique, la culture du doute chez les médecins généralistes : « Et si c’était une maladie rare ? ».
De façon générale, outre son efficacité auprès des professionnels de santé et du grand-public, le succès de la gamification repose également sur des collaborations inédites avec la jeune génération. Socrate par exemple, a été conçu avec une équipe d’étudiants issus de grandes écoles (Ecole Centrale Paris, ESSEC, Strate Ecole de Design), dans le cadre du programme Création d’un Produit innovant, dont Sanofi est partenaire.

Former, informer et impliquer les médecins… mais aussi les patients !

Si la gamification demeure une tendance en pleine expansion, c’est aussi parce qu’elle sait toucher des publics très variés. Nous sommes tous de plus en plus familiarisés avec des parcours d’information, d’achat ou encore d’interaction sociale entièrement digitalisés. Et les patients aussi, en tant qu’usagers numériques ! Certains serious games ont ainsi été imaginés pour améliorer leur connaissance sur leur maladie, ou faciliter leur prise en charge par leurs proches. C’est dans cette optique que Method in the Madness, une société strasbourgeoise spécialisée dans la gamification, a développé avec l’Institut de recherche contre les cancers de l’appareil digestif (Ircad) un serious game sur tablette intitulé « VP vs Dark Tumor ». Ce jeu vidéo met en scène de façon concrète le combat des enfants atteints par le cancer. Vipy, un petit personnage virtuel sympathique, se bat ainsi contre le vilain Dark Tumor, personnification de la maladie. Il consiste à tuer le grand méchant Dark Tumor (la maladie) et ses métas (métastases), sans tuer les cellules saines. Pour y parvenir, les armes de VP, le héros, sont progressives : il s’agit de toutes les thérapies utilisées pour soigner le cancer (chirurgie, cryothérapie, chimiothérapie, etc.). A travers 125 niveaux (ou 75 pour les enfants de moins de 7 ans), la mission de ce serious game est de prouver à l’enfant que les thérapies proposées pourront le guérir. Mais pas que !

Ce type de jeu remplit ainsi de multiples objectifs : expliquer, dédramatiser et aider à la compréhension de sujets souvent compliqués à aborder et ce, afin de mieux accompagner les patients et les professionnels de santé, tout au long du parcours de soins. Qu’il s’agisse de maladies rares, graves ou de gestes de secours, une chose est sûre : la gamification pose sa pierre dans l’édifice de la guérison et n’est pas prêt de quitter le combat pour la santé !
more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Data science, data gouvernance et open source : enjeux majeurs de la ville connectée #JPBouzige

Data science, data gouvernance et open source : enjeux majeurs de la ville connectée #JPBouzige | Territoire 2.0 | Scoop.it

Les différentes parties prenantes, entreprises et pouvoirs publics, ont conscience que le succès de la ville connectée passe par une maîtrise de la chaîne de valeur de la donnée. La ville connectée évoque dans l’imaginaire collectif une ville où les capteurs observeraient tout, de la température à la circulation. Les feux de signalisation seraient activés et désactivés à l'aide de capteurs de mouvement, et le GPS de votre voiture indiquerait non seulement votre itinéraire mais aussi l'espace de stationnement disponible le plus proche de votre destination. Ce songe technologique se précise un peu plus chaque jour grâce au déploiement de l'internet des objets (IoT), ce réseau d'objets et de capteurs connectés à internet, en mesure de communiquer de manière transparente et en temps réel. La ville du futur et connectée ambitionne en effet de communiquer avec elle-même, de suivre et de répondre aux mouvements de ses résidents pour optimiser automatiquement leurs conditions de vie en temps réel. Ce désir de tirer profit des récentes évolutions technologiques pour simplifier la vie des citadins et assurer une conception plus durable de la ville est notamment porté par le C40 - une alliance globale de 40 métropoles qui vise à mettre en application l’accord de la Cop21 en capitalisant notamment sur les applications de la ville connectée. La ville de Paris et le NUMA travaillent sur le projet #DataCity pour permettre à de grands groupes collaborant avec des start-up de déployer les premiers cas pratiques répondants aux besoins de la ville connectée de demain. Depuis trois ans, il y a un intérêt croissant sur le sujet, et constatons que les énergéticiens et les constructeurs automobiles déploient des PoCs (proof of concept) en data science de plus en plus aboutis autour de l’IoT. Plus largement, certains pays leaders commencent même à communiquer leurs plans stratégiques pour adresser les défis posés par l’IoT. Les différentes parties prenantes, entreprises et pouvoirs publics, ont conscience que le succès de la ville connectée passe par une maîtrise de la chaîne de valeur de la donnée. Il est à n’en pas douter nécessaire de garantir la sécurité, l’actionnabilité et la transparence des données. En effet, la réussite de la ville connectée est largement conditionnée par la capacité des villes et des états à clarifier la gouvernance des données tout en déployant de puissantes plateformes d’open data pour permettre aux entreprises (start-up et grands groupes) d’apporter une valeur ajoutée et de développer des services pertinents. A l’occasion de la signature d’un MOU (Memorandum of Understanding) avec l’Open Data Alliance pendant le Smart City Summit de Taiwan en Février dernier, force est de constater cette prise de conscience chez des pays leaders dans la production de composants électroniques et informatiques (Japon, Taiwan, Corée). Taiwan est à plusieurs égards un exemple intéressant, comme le souligne Dr ChiMing Peng, président de l’Open Data Alliance : « Taipei est une des villes au monde où il y a le plus de capteurs, l’enjeu à présent est de développer une surcouche de valeur via l’économie numérique, en permettant notamment aux acteurs de l’énergie et des transports d’enrichir leur connaissance avec de l’open data ». Taiwan ambitionne d’infuser ces pratiques au-delà de la sphère business, un plan ambitieux DIGI+ a d’ailleurs été présenté par la ministre de l’économie numérique Audrey Tang en décembre dernier. Ce plan qui a pour but de positionner Taiwan comme leader de l’IoT, de la ville connectée et plus généralement de l’économie numérique repose sur trois piliers : La construction d’un cadre légal avantageux pour l’innovation, Le développement de la multidisciplinarité des talents, au travers notamment d’une profonde refonte de l’enseignement du numérique et de la data science, Une R&D avancée dans les technologies numériques avec un fort tropisme pour l’open source et l’open innovation. Ce plan démontre à quelle point la ville connectée et intelligente s’insère dans des transformations technologiques et sociétales plus larges. Il semble nécessaire d’engager les réflexions multidisciplinaires pour arriver à une intégration de la ville connectée à horizon 2030. Dans un horizon plus proche, l’évolution positive de la gouvernance des données et de l’open data permettent de consolider la surcouche d’intelligence AoT (Analytics of Things) dès à présent en pratique pour démontrer la valeur des premiers cas d’usage.

more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Des serious games pour les seniors, par Magalie Le Bihan | E-santé 

Des serious games pour les seniors, par Magalie Le Bihan | E-santé  | Territoire 2.0 | Scoop.it
De plus en plus de jeunes retraités se mettent aux jeux vidéo… De quoi se refaire une jeunesse ? Le but de ces serious games ou « jeux sérieux » destinés aux plus de 60 ans est de faire travailler son cerveau et de limiter les effets du temps tout en s’amusant !

SOMMAIRE Serious game : qu’est-ce que c’est ? Seniors : comment améliorer sa santé grâce aux jeux vidéo ? Serious games pour seniors : lesquels choisir ? Serious game : qu’est-ce que c’est ?
Un serious game, ou « jeu sérieux » en français est un jeu vidéo qui combine une intention « sérieuse » (apprendre, s’entrainer, s’informer, progresser dans un ou plusieurs domaines… ), avec des ressorts ludiques. Il s’agit alors d’un jeu dont l’objectif n’est pas seulement de divertir. Les serious games sont apparus dès le XVIIIème siècle dans le cadre de l’entraînement des militaires (jeux de simulation de guerre). Les jeux sérieux ont ensuite été utilisés par les entreprises pour former les employés et représentent maintenant un marché fleurissant touchant toutes les tranches d’âge de la population. Les serious games développés pour les seniors ont principalement pour vocation d’améliorer leurs capacités psychiques et physiques et donc de ralentir les effets du temps sur leur santé. A condition de les pratiquer régulièrement et au long terme !
Seniors : comment améliorer sa santé grâce aux jeux vidéo ?
Bon nombre de personnes de plus de 60 ans ont déjà pour habitude de jouer aux jeux vidéo, même ceux qui ne sont pas exclusivement destinés à cette tranche d’âge. Il n’est pas rare, par exemple, de voir un groupe de personnes âgées se disputer une partie de bowling ou de golf sur la Nintendo Wii dans les salons des résidences séniors ou des maisons de retraite. Les seniors français montrent donc un intérêt à la pratique de divers types de jeux, excepté ceux qui sollicitent beaucoup les réflexes ou qui requièrent une excellente vision de l’espace. La pratique des jeux vidéo favoriserait le lien social entre seniors mais aussi intergénérationnel (enfants, petits-enfants…), améliorerait la capacité à se concentrer, la coordination des mouvements et dans le cas de certains jeux, cela aiderait la personne âgée à bouger sans même qu’elle s’en aperçoive. Les serious games destinés aux seniors sont de plus développés avec de réels objectifs thérapeutiques à la clef, notamment : retarder l’apparition des symptômes de maladies neurodégénératives en améliorant ou en ralentissant le déclin des fonctions cognitives que sont la mémoire, le langage, le raisonnement, l'apprentissage, l'intelligence, la résolution de problèmes, la prise de décisions, la perception ou l'attention ; prévenir le risque de chutes et favoriser l’autonomie de la personne âgée et donc son maintien à domicile ; devenir acteur dans la prise en charge de sa pathologie chronique ; s’éduquer en matière de santé et prévenir l’apparition de certaines maladies.
Serious games pour seniors : lesquels choisir ?
Si vous êtes tentés par les serious games destinés aux seniors, voici notre sélection : Si vous voulez entraîner votre cerveau avec une méthode personnalisée : Happyneuron Créé par la société française SBT (Scientific Brain Training) il y a plus de 10 ans en collaboration avec un neurologue, le jeu Happyneuron préviendrait le déclin cognitif lié à l’âge. Grâce à une méthode sur-mesure adaptée au profil cognitif et aux attentes de chacun, Happyneuron vous propose d’améliorer votre mémoire, votre attention, votre langage, votre logique ou encore votre vision dans l’espace. L’accès au jeu est payant mais se fait à tout moment depuis votre ordinateur. Vous disposerez d’un large choix de modules à effectuer et pourrez demander à être coaché(e) tout au long de votre progression. De plus, Happyneuron précise les zones cérébrales que chaque activité vous permet d’activer.
Pour faire avancer la recherche sur la maladie d’Alzheimer : Sea Hero Quest 2,5 millions de personnes ont déjà joué à ce jeu, qui a été conçu afin d’aider la science à lutter contre toutes les formes de démences. Si vous jouez pendant 2 minutes à Sea Hero Quest accessible depuis votre ordinateur, vous générerez une quantité de données correspondant à ce que les scientifiques collecteraient en 5 heures d’études dans un laboratoire. Les données collectées servent à alimenter un référentiel mondial dans le but d’améliorer le dépistage précoce de la démence, et ainsi améliorer la prise en charge de ces pathologies qui touchent de plus en plus de personnes. Chaque élément du jeu est conçu afin d’être aussi divertissant que scientifiquement utile et pertinent. Si vous avez un diabète ou souhaitez le prévenir : Meli Melo glucidique et Rififi à Daisy Town Meli Melo glucidique est un jeu rapide qui vous permettra d’approfondir vos connaissances en nutrition, afin de vous aider à faire le bon choix d’aliments lors de vos courses et de la composition de vos repas au quotidien. Vous apprendrez également quels bons réflexes à avoir en cas de malaise hypoglycémique. Rififi à Daisy Town a été élaboré en collaboration avec la Fédération Française des Diabétiques pour sensibiliser le grand public au diabète de type 2, en pleine expansion. Le joueur incarne le célèbre personnage Lucky Luke, appelé́ à la rescousse par le maire de Daisy Town car certains habitants présentent de curieux symptômes. Vous êtes chargé de mener une enquête au cours de laquelle vous identifierez les facteurs de risque du diabète et découvrirez que certains sont contrôlables. En toute fin de partie, vous êtes invité à calculer votre propre risque de diabète. Pour limiter le risque de chutes et favoriser l’autonomie : MediMoov et Prévi-chute MediMoov est une plateforme internet de rééducation fonctionnelle et posturale et de soutien à l’autonomie des séniors. Elle comprend plusieurs jeux vidéo réalisés en collaboration avec des professionnels de santé permettant aux séniors de faire des mouvements qui leur sont adaptés, de manière personnalisée, ludique et agréable. Pour le moment uniquement disponible dans quelques maisons de retraite françaises, la plateforme MediMoov permet aux résidents de bouger quotidiennement et de réaliser des bilans et le suivi de leurs capacités motrices, ce qui permet aux soignants de suivre leurs progrès. « Prévi-chute » est un jeu disponible sur internet gratuitement, destiné à mettre les seniors en situation dans leur quotidien : il met en scène en réalité virtuelle 3D les déplacements d’une personne dans un appartement. Pendant tout le parcours, l’attention du joueur est attirée sur les éléments générateurs de chute et les solutions préconisées pour les supprimer. Il a donc pour objectif d’aider à repérer les risques de la vie domestique et quotidienne et à prendre conscience de la dangerosité d’un aménagement intérieur inadapté. Il peut être utilisé également par la famille ou les soignants d’une personne âgée. Si vous êtes atteint de BPCO (BronchoPneumopathie Chronique Obstructive) : 2ème souffle Prochainement disponible, le jeu « 2ème souffle » est destiné aux patients souffrant de BPCO. Sous forme de vidéo que vous trouverez sur la plateforme médicale vidéoludique LudoMedic , vous pourrez faire vous-même des exercices de réhabilitation respiratoire à la fréquence et avec les objectifs de votre choix. La réhabilitation respiratoire est fortement recommandée dans la prise en charge de la BPCO pour soulager les symptômes, améliorer la qualité de vie et réduire le nombre d’hospitalisations des patients. En savoir plus sur http://www.e-sante.fr/serious-games-pour-seniors/2/actualite/194712#i1ZBs1lTHfCB9vV7.99
more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Security Breach and Spilled Secrets Have Shaken the N.S.A. to Its Core

Security Breach and Spilled Secrets Have Shaken the N.S.A. to Its Core | Territoire 2.0 | Scoop.it

A serial leak of the agency’s cyberweapons has damaged morale, slowed intelligence operations and resulted in hacking attacks on businesses and civilians worldwide.


WASHINGTON — Jake Williams awoke last April in an Orlando, Fla., hotel where he was leading a training session. Checking Twitter, Mr. Williams, a cybersecurity expert, was dismayed to discover that he had been thrust into the middle of one of the worst security debacles ever to befall American intelligence. Mr. Williams had written on his company blog about the Shadow Brokers, a mysterious group that had somehow obtained many of the hacking tools the United States used to spy on other countries. Now the group had replied in an angry screed on Twitter. It identified him — correctly — as a former member of the National Security Agency’s hacking group, Tailored Access Operations, or T.A.O., a job he had not publicly disclosed. Then the Shadow Brokers astonished him by dropping technical details that made clear they knew about highly classified hacking operations that he had conducted. America’s largest and most secretive intelligence agency had been deeply infiltrated. “They had operational insight that even most of my fellow operators at T.A.O. did not have,” said Mr. Williams, now with Rendition Infosec, a cybersecurity firm he founded. “I felt like I’d been kicked in the gut. Whoever wrote this either was a well-placed insider or had stolen a lot of operational data.” The jolt to Mr. Williams from the Shadow Brokers’ riposte was part of a much broader earthquake that has shaken the N.S.A. to its core. Current and former agency officials say the Shadow Brokers disclosures, which began in August 2016, have been catastrophic for the N.S.A., calling into question its ability to protect potent cyberweapons and its very value to national security. The agency regarded as the world’s leader in breaking into adversaries’ computer networks failed to protect its own. “These leaks have been incredibly damaging to our intelligence and cyber capabilities,” said Leon E. Panetta, the former defense secretary and director of the Central Intelligence Agency. “The fundamental purpose of intelligence is to be able to effectively penetrate our adversaries in order to gather vital intelligence. By its very nature, that only works if secrecy is maintained and our codes are protected.” Continue reading the main story Advertisement Continue reading the main story With a leak of intelligence methods like the N.S.A. tools, Mr. Panetta said, “Every time it happens, you essentially have to start over.” Fifteen months into a wide-ranging investigation by the agency’s counterintelligence arm, known as Q Group, and the F.B.I., officials still do not know whether the N.S.A. is the victim of a brilliantly executed hack, with Russia as the most likely perpetrator, an insider’s leak, or both. Three employees have been arrested since 2015 for taking classified files, but there is fear that one or more leakers may still be in place. And there is broad agreement that the damage from the Shadow Brokers already far exceeds the harm to American intelligence done by Edward J. Snowden, the former N.S.A. contractor who fled with four laptops of classified material in 2013. Mr. Snowden’s cascade of disclosures to journalists and his defiant public stance drew far more media coverage than this new breach. But Mr. Snowden released code words, while the Shadow Brokers have released the actual code; if he shared what might be described as battle plans, they have loosed the weapons themselves. Created at huge expense to American taxpayers, those cyberweapons have now been picked up by hackers from North Korea to Russia and shot back at the United States and its allies. Photo A screenshot taken as ransomware affected systems worldwide last summer. The Ukrainian government posted the picture to its official Facebook page. Millions of people saw their computers shut down by ransomware, with demands for payments in digital currency to have their access restored. Tens of thousands of employees at Mondelez International, the maker of Oreo cookies, had their data completely wiped. FedEx reported that an attack on a European subsidiary had halted deliveries and cost $300 million. Hospitals in Pennsylvania, Britain and Indonesia had to turn away patients. The attacks disrupted production at a car plant in France, an oil company in Brazil and a chocolate factory in Tasmania, among thousands of enterprises affected worldwide. American officials had to explain to close allies — and to business leaders in the United States — how cyberweapons developed at Fort Meade in Maryland came to be used against them. Experts believe more attacks using the stolen N.S.A. tools are all but certain. Inside the agency’s Maryland headquarters and its campuses around the country, N.S.A. employees have been subjected to polygraphs and suspended from their jobs in a hunt for turncoats allied with the Shadow Brokers. Much of the agency’s arsenal is still being replaced, curtailing operations. Morale has plunged, and experienced specialists are leaving the agency for better-paying jobs — including with firms defending computer networks from intrusions that use the N.S.A.’s leaked tools. “It’s a disaster on multiple levels,” Mr. Williams said. “It’s embarrassing that the people responsible for this have not been brought to justice.” Share More in International Grace Mugabe’s Fierce Battle for Power in Zimbabwe In Zimbabwe Crisis, Is Mugabe’s Reign Over? Iran-Iraq Quake: Digging Through the Rubble Video Who Are The Shadow Brokers? A National Security Agency hacking tool leaked in April by an elite group called the Shadow Brokers has now been used in a cyberattack on computers in more than 150 countries. Intelligence officials say North Korean-linked hackers are likely suspects. By NATALIE RENEAU and MARK SCHEFFLER on Publish Date May 15, 2017. Photo by Ritchie B. Tongo/European Pressphoto Agency. Watch in Times Video » embed ShareTweet In response to detailed questions, an N.S.A. spokesman, Michael T. Halbig, said the agency “cannot comment on Shadow Brokers.” He denied that the episode had hurt morale. “N.S.A. continues to be viewed as a great place to work; we receive more than 140,000 applications each year for our hiring program,” he said. Advertisement Continue reading the main story Compounding the pain for the N.S.A. is the attackers’ regular online public taunts, written in ersatz broken English. Their posts are a peculiar mash-up of immaturity and sophistication, laced with profane jokes but also savvy cultural and political references. They suggest that their author — if not an American — knows the United States well. “Is NSA chasing shadowses?” the Shadow Brokers asked in a post on Oct. 16, mocking the agency’s inability to understand the leaks and announcing a price cut for subscriptions to its “monthly dump service” of stolen N.S.A. tools. It was a typically wide-ranging screed, touching on George Orwell’s “1984”; the end of the federal government’s fiscal year on Sept. 30; Russia’s creation of bogus accounts on Facebook and Twitter; and the phenomenon of American intelligence officers going to work for contractors who pay higher salaries. Photo The Shadow Brokers have mocked the N.S.A. in regular online posts and released its stolen hacking tools in a “monthly dump service.” One passage, possibly hinting at the Shadow Brokers’ identity, underscored the close relationship of Russian intelligence to criminal hackers. “Russian security peoples,” it said, “is becoming Russian hackeres at nights, but only full moons.” Russia is the prime suspect in a parallel hemorrhage of hacking tools and secret documents from the C.I.A.’s Center for Cyber Intelligence, posted week after week since March to the WikiLeaks website under the names Vault7 and Vault8. That breach, too, is unsolved. Together, the flood of digital secrets from agencies that invest huge resources in preventing such breaches is raising profound questions. Have hackers and leakers made secrecy obsolete? Has Russian intelligence simply outplayed the United States, penetrating the most closely guarded corners of its government? Can a work force of thousands of young, tech-savvy spies ever be immune to leaks? Some veteran intelligence officials believe a lopsided focus on offensive weapons and hacking tools has, for years, left American cyberdefense dangerously porous. “We have had a train wreck coming,” said Mike McConnell, the former N.S.A. director and national intelligence director. “We should have ratcheted up the defense parts significantly.”

Cyber Special Forces

At the heart of the N.S.A. crisis is Tailored Access Operations, the group where Mr. Williams worked, which was absorbed last year into the agency’s new Directorate of Operations.


T.A.O. — the outdated name is still used informally — began years ago as a side project at the agency’s research and engineering building at Fort Meade. It was a cyber Skunk Works, akin to the special units that once built stealth aircraft and drones. As Washington’s need for hacking capabilities grew, T.A.O. expanded into a separate office park in Laurel, Md., with additional teams at facilities in Colorado, Georgia, Hawaii and Texas. The hacking unit attracts many of the agency’s young stars, who like the thrill of internet break-ins in the name of national security, according to a dozen former government officials who agreed to describe its work on the condition of anonymity. T.A.O. analysts start with a shopping list of desired information and likely sources — say, a Chinese official’s home computer or a Russian oil company’s network. Much of T.A.O.’s work is labeled E.C.I., for “exceptionally controlled information,” material so sensitive it was initially stored only in safes. When the cumulative weight of the safes threatened the integrity of N.S.A.’s engineering building a few years ago, one agency veteran said, the rules were changed to allow locked file cabinets. The more experienced T.A.O. operators devise ways to break into foreign networks; junior operators take over to extract information. Mr. Williams, 40, a former paramedic who served in military intelligence in the Army before joining the N.S.A., worked in T.A.O. from 2008 to 2013, which he described as an especially long tenure. He called the work “challenging and sometimes exciting.” T.A.O. operators must constantly renew their arsenal to stay abreast of changing software and hardware, examining every Windows update and new iPhone for vulnerabilities. “The nature of the business is to move with the technology,” a former T.A.O. hacker said. Long known mainly as an eavesdropping agency, the N.S.A. has embraced hacking as an especially productive way to spy on foreign targets. The intelligence collection is often automated, with malware implants — computer code designed to find material of interest — left sitting on the targeted system for months or even years, sending files back to the N.S.A. The same implant can be used for many purposes: to steal documents, tap into email, subtly change data or become the launching pad for an attack. T.A.O.’s most public success was an operation against Iran called Olympic Games, in which implants in the network of the Natanz nuclear plant caused centrifuges enriching uranium to self-destruct. The T.A.O. was also critical to attacks on the Islamic State and North Korea. It was this arsenal that the Shadow Brokers got hold of, and then began to release. Like cops studying a burglar’s operating style and stash of stolen goods, N.S.A. analysts have tried to figure out what the Shadow Brokers took. None of the leaked files date from later than 2013 — a relief to agency officials assessing the damage. But they include a large share of T.A.O.’s collection, including three so-called ops disks — T.A.O.’s term for tool kits — containing the software to bypass computer firewalls, penetrate Windows and break into the Linux systems most commonly used on Android phones. Advertisement Continue reading the main story Evidence shows that the Shadow Brokers obtained the entire tool kits intact, suggesting that an insider might have simply pocketed a thumb drive and walked out. But other files obtained by the Shadow Brokers bore no relation to the ops disks and seem to have been grabbed at different times. Some were designed for a compromise by the N.S.A. of Swift, a global financial messaging system, allowing the agency to track bank transfers. There was a manual for an old system code-named UNITEDRAKE, used to attack Windows. There were PowerPoint presentations and other files not used in hacking, making it unlikely that the Shadow Brokers had simply grabbed tools left on the internet by sloppy N.S.A. hackers. Photo After 15 months of investigation, officials still do not know what was behind the Shadow Brokers disclosures — a hack, with Russia as the most likely perpetrator, an insider’s leak, or both. Some officials doubt that the Shadow Brokers got it all by hacking the most secure of American government agencies — hence the search for insiders. But some T.A.O. hackers think that skilled, persistent attackers might have been able to get through the N.S.A.’s defenses — because, as one put it, “I know we’ve done it to other countries.” Newsletter Sign Up Continue reading the main story Get the Morning Briefing by Email What you need to know to start your day, delivered to your inbox Monday through Friday. You agree to receive occasional updates and special offers for The New York Times's products and services. See Sample Privacy Policy Opt out or contact us anytime The Shadow Brokers have verbally attacked certain experts, including Mr. Williams. When he concluded from their Twitter hints that they knew about some of his hacks while at the N.S.A., he canceled a business trip to Singapore. The United States had named and criminally charged hackers from the intelligence agencies of China, Iran and Russia. He feared he could be similarly charged by a country he had targeted and arrested on an international warrant. He has since resumed traveling abroad. But he says no one from the N.S.A. has contacted him about being singled out publicly by the Shadow Brokers. “That feels like a betrayal,” he said. “I was targeted by the Shadow Brokers because of that work. I do not feel the government has my back.” The Hunt for an Insider For decades after its creation in 1952, the N.S.A. — No Such Agency, in the old joke — was seen as all but leakproof. But since Mr. Snowden flew away with hundreds of thousands of documents in 2013, that notion has been shattered. The Snowden trauma led to the investment of millions of dollars in new technology and tougher rules to counter what the government calls the insider threat. But N.S.A. employees say that with thousands of employees pouring in and out of the gates, and the ability to store a library’s worth of data in a device that can fit on a key ring, it is impossible to prevent people from walking out with secrets. The agency has active investigations into at least three former N.S.A. employees or contractors. Two had worked for T.A.O.: a still publicly unidentified software developer secretly arrested after taking hacking tools home in 2015, only to have Russian hackers lift them from his home computer; and Harold T. Martin III, a contractor arrested last year when F.B.I. agents found his home, garden shed and car stuffed with sensitive agency documents and storage devices he had taken over many years when a work-at-home habit got out of control, his lawyers say. The third is Reality Winner, a young N.S.A. linguist arrested in June, who is charged with leaking to the news site The Intercept a single classified report on a Russian breach of an American election systems vendor. Advertisement Continue reading the main story Mr. Martin’s gargantuan collection of stolen files included much of what the Shadow Brokers have, and he has been scrutinized by investigators as a possible source for them. Officials say they do not believe he deliberately supplied the material, though they have examined whether he might have been targeted by thieves or hackers. But according to former N.S.A. employees who are still in touch with active workers, investigators of the Shadow Brokers thefts are clearly worried that one or more leakers may still be inside the agency. Some T.A.O. employees have been asked to turn over their passports, take time off their jobs and submit to questioning. The small number of specialists who have worked both at T.A.O. and at the C.I.A. have come in for particular attention, out of concern that a single leaker might be responsible for both the Shadow Brokers and the C.I.A.’s Vault7 breaches. Then there are the Shadow Brokers’ writings, which betray a seeming immersion in American culture. Last April, about the time Mr. Williams was discovering their inside knowledge of T.A.O. operations, the Shadow Brokers posted an appeal to President Trump: “Don’t Forget Your Base.” With the ease of a seasoned pundit, they tossed around details about Stephen K. Bannon, the president’s now departed adviser; the Freedom Caucus in Congress; the “deep state”; the Alien and Sedition Acts; and white privilege. “TheShadowBrokers is wanting to see you succeed,” the post said, addressing Mr. Trump. “TheShadowBrokers is wanting America to be great again.” The mole hunt is inevitably creating an atmosphere of suspicion and anxiety, former employees say. While the attraction of the N.S.A. for skilled operators is unique — nowhere else can they hack without getting into legal trouble — the boom in cybersecurity hiring by private companies gives T.A.O. veterans lucrative exit options. Got a confidential news tip? The New York Times would like to hear from readers who want to share messages and materials with our journalists. Young T.A.O. hackers are lucky to make $80,000 a year, while those who leave routinely find jobs paying well over $100,000, security specialists say. For many workers, the appeal of the N.S.A’s mission has been more than enough to make up the difference. But over the past year, former T.A.O. employees say an increasing number of former colleagues have called them looking for private-sector work, including “graybeards” they thought would be N.S.A. lifers. “Snowden killed morale,” another T.A.O. analyst said. “But at least we knew who he was. Now you have a situation where the agency is questioning people who have been 100 percent mission-oriented, telling them they’re liars.” Advertisement Continue reading the main story Because the N.S.A. hacking unit has grown so rapidly over the past decade, the pool of potential leakers has expanded into the hundreds. Trust has eroded as anyone who had access to the leaked code is regarded as the potential culprit. Some agency veterans have seen projects they worked on for a decade shut down because implants they relied on were dumped online by the Shadow Brokers. The number of new operations has declined because the malware tools must be rebuilt. And no end is in sight. “How much longer are the releases going to come?” a former T.A.O. employee asked. “The agency doesn’t know how to stop it — or even what ‘it’ is.” One N.S.A. official who almost saw his career ended by the Shadow Brokers is at the very top of the organization: Adm. Michael S. Rogers, director of the N.S.A. and commander of its sister military organization, United States Cyber Command. President Barack Obama’s director of national intelligence, James R. Clapper Jr., and defense secretary, Ashton B. Carter, recommended removing Admiral Rogers from his post to create accountability for the breaches. But Mr. Obama did not act on the advice, in part because Admiral Rogers’s agency was at the center of the investigation into Russia’s interference in the 2016 election. Mr. Trump, who again on Saturday disputed his intelligence agencies’ findings on Russia and the election, extended the admiral’s time in office. Some former intelligence officials say they are flabbergasted that he has been able to hold on to his job.


A Shadow War With Russia?

Lurking in the background of the Shadow Brokers investigation is American officials’ strong belief that it is a Russian operation. The pattern of dribbling out stolen documents over many months, they say, echoes the slow release of Democratic emails purloined by Russian hackers last year. But there is a more specific back story to the United States-Russia rivalry. Starting in 2014, American security researchers who had been tracking Russia’s state-sponsored hacking groups for years began to expose them in a series of research reports. American firms, including Symantec, CrowdStrike and FireEye, reported that Moscow was behind certain attacks and identified government-sponsored Russian hacking groups. Photo The Moscow headquarters of Kaspersky Lab, a Russian cybersecurity firm that hunted for N.S.A. malware. Credit Kirill Kudryavtsev/Agence France-Presse — Getty Images In the meantime, Russia’s most prominent cybersecurity firm, Kaspersky Lab, had started work on a report that would turn the tables on the United States. Kaspersky hunted for the spying malware planted by N.S.A. hackers, guided in part by the keywords and code names in the files taken by Mr. Snowden and published by journalists, officials said. Advertisement Continue reading the main story Kaspersky was, in a sense, simply doing to the N.S.A. what the American companies had just done to Russian intelligence: expose their operations. And American officials believe Russian intelligence was piggybacking on Kaspersky’s efforts to find and retrieve the N.S.A.’s secrets wherever they could be found. The T.A.O. hackers knew that when Kaspersky updated its popular antivirus software to find and block the N.S.A. malware, it could thwart spying operations around the world. So T.A.O. personnel rushed to replace implants in many countries with new malware they did not believe the Russian company could detect. In February 2015, Kaspersky published its report on the Equation Group — the company’s name for T.A.O. hackers — and updated its antivirus software to uproot the N.S.A. malware wherever it had not been replaced. The agency temporarily lost access to a considerable flow of intelligence. By some accounts, however, N.S.A. officials were relieved that the Kaspersky report did not include certain tools they feared the Russian company had found. As it would turn out, any celebration was premature. On Aug. 13 last year, a new Twitter account using the Shadow Brokers’ name announced with fanfare an online auction of stolen N.S.A. hacking tools. “We hack Equation Group,” the Shadow Brokers wrote. “We find many many Equation Group cyber weapons.” Inside the N.S.A., the declaration was like a bomb exploding. A zip file posted online contained the first free sample of the agency’s hacking tools. It was immediately evident that the Shadow Brokers were not hoaxsters, and that the agency was in trouble. The leaks have renewed a debate over whether the N.S.A. should be permitted to stockpile vulnerabilities it discovers in commercial software to use for spying — rather than immediately alert software makers so the holes can be plugged. The agency claims it has shared with the industry more than 90 percent of flaws it has found, reserving only the most valuable for its own hackers. But if it can’t keep those from leaking, as the last year has demonstrated, the resulting damage to businesses and ordinary computer users around the world can be colossal. The Trump administration says it will soon announce revisions to the system, making it more transparent. Mr. Williams said it may be years before the “full fallout” of the Shadow Brokers breach is understood. Even the arrest of whoever is responsible for the leaks may not end them, he said — because the sophisticated perpetrators may have built a “dead man’s switch” to release all remaining files automatically upon their arrest. “We’re obviously dealing with people who have operational security knowledge,” he said. “They have the whole law enforcement system and intelligence system after them. And they haven’t been caught.”

more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Utiliser les jeux vidéo grand public en classe par Fanny Lignon #UnivLyon1- Les Cahiers pédagogiques

Utiliser les jeux vidéo grand public en classe par Fanny Lignon #UnivLyon1- Les Cahiers pédagogiques | Territoire 2.0 | Scoop.it

Les sciences de l’éducation, lorsqu’il est question de mettre les jeux vidéo au service des apprentissages, convoquent plus souvent les serious games que les jeux grand public, alors même que ces derniers suscitent massivement l’engouement des élèves. Atouts, limites et modalités de l’utilisation en classe de ces productions issues de l’industrie culturelle.

Toutes les enquêtes, et notamment celle réalisée sur le territoire national par l’IFOP en 2015, confirment la popularité des loisirs vidéoludiques auprès des jeunes. L’immense majorité des élèves étant en contact étroit avec ce média, il apparaît indispensable de l’aborder en tant que tel en classe. L’Éducation nationale ne s’y est pas trompée qui le mentionne explicitement dans le cadre de l’éducation à l’image, au cinéma, à l’audiovisuel et dans le programme d’histoire des arts. De nombreux enseignants, cependant, vont au-delà de ces propositions institutionnelles et s’emparent de cet objet pour le mettre au service des apprentissages disciplinaires. Les lignes qui suivent s’efforcent d’exposer, de façon raisonnée, les différents usages des jeux vidéo grand public en classe. Julian Alvarez et Damien Djaouti [1] ont établi en 2010 une carte des applications informatiques utilisables à des fins ludiques et d’apprentissages. Ils tracent les frontières du serious gaming et des trois sous-ensembles qui selon eux le constituent. Le premier regroupe les détournements d’applications utilitaires (l’objectif, sérieux à l’origine, devient ludique). Exemple : un enseignant utilise un logiciel de traitement de texte pour faire écrire à ses élèves un récit interactif. Le deuxième regroupe les jeux sérieux (l’objectif est double, sérieux et ludique). Exemple : un enseignant utilise avec ses élèves un jeu conçu pour leur faire travailler l’orthographe ou les mathématiques, pour les éduquer à la sécurité routière ou aux dangers d’Internet. Le troisième regroupe les détournements de jeux vidéo (l’objectif, ludique à l’origine, devient sérieux). Exemple : un enseignant utilise pour faire cours un jeu d’aventure, de combat ou de plate-forme, grand public ou plus confidentiel.


Des enseignants pionniers

Les jeux vidéo grand public ont l’immense avantage de ne pas appartenir à la catégorie des documents dits scolaires ; ils sont aussi, ordinairement, plus ludiques et plus spectaculaires que les jeux sérieux. Conséquence de cela, ils ont un impact fort sur la motivation immédiate des élèves. Pour les utiliser en classe, l’enseignant se doit certes d’avoir une connaissance suffisante du domaine, mais il doit également déployer toute son inventivité pédagogique afin d’amener un objet à servir des objectifs disciplinaires ou transversaux très différents de ceux pour lesquels il a initialement été conçu. En France et à l’étranger, de plus en plus d’enseignants se lancent dans l’aventure et imaginent des séances où ils tentent d’exploiter le potentiel éducatif des jeux vidéo. Il s’agit la plupart du temps d’expérimentations, puisqu’en la matière tout est encore à inventer. Les supports utilisés varient. Les jeux eux-mêmes, bien sûr, sont sollicités (scènes cinématiques, parties jouées ou enregistrées) mais aussi tout ce qui les entoure (sites dédiés, presse spécialisée, jaquettes de jeux, affiches publicitaires, bandes annonces, tutoriels, parties commentées…). La nature même du média jeu vidéo fait que l’on trouve beaucoup d’exemples relatant son utilisation en classe sur Internet (sites pédagogiques, blogs d’enseignants et de chercheurs). Certaines propositions restent relativement traditionnelles. Si on les confronte au modèle SAMR (Substitution, Augmentation, Modification, Redéfinition), établi par Ruben Puentedura [2] pour identifier les différents niveaux d’intégration des TICE dans une activité, on constate qu’elles correspondent aux deux premiers niveaux : la substitution et l’augmentation. Exemples de niveau un : à partir d’un jeu dont l’action est censée se passer en un lieu réel et une époque historiquement située, un enseignant propose à ses élèves un questionnaire qu’ils doivent remplir en extrayant les informations des fiches informatives disponibles dans le jeu et qui présentent certains de ses éléments (bâtiments, personnes, objets) ; un autre s’appuie sur des scènes cinématiques et des extraits de parties pour faire apparaître la distorsion entre la réalité et sa transposition ludique ; un autre encore propose aux élèves de travailler sur les stéréotypes de sexes à partir des représentations masculines et féminines qui figurent sur les jaquettes des jeux. Exemples de niveau deux : un professeur de français fait jouer ses élèves à un jeu vidéo d’aventure et les invite à expliquer par écrit comment ils s’y sont pris pour déjouer les pièges, résoudre les énigmes, aller d’un point A à un point B. Un autre, spécialisé en Français langue étrangère (FLE), utilise un jeu à récit fictionnel et leur demande de raconter à l’oral l’histoire qu’ils viennent de vivre. Un autre encore, qui enseigne l’économie, se sert d’un jeu de gestion pour expliquer le principe de l’impôt et son impact sur une population. Dans le premier cas, le jeu vidéo est exploité comme un média lambda. Dans le deuxième, l’interactivité est partiellement prise en compte. Il est demandé aux élèves d’agir dans le monde virtuel qui leur est proposé, d’observer et commenter les résultats - rendus visibles en temps réel - de leurs actions. Pour résumer, si l’on se réfère au modèle SAMR, il y a amélioration des séances mais celles-ci ne sont pas encore fondamentalement transformées.


Des séances transformées

L’étape suivante, dans le modèle SAMR, est celle de la modification. La technologie, à ce stade, permet une reconfiguration significative de la tâche. Exemple de séance : un enseignant d’histoire-géographie utilise un jeu d’aventure-action qui se déroule dans une cité d’autrefois reproduite de façon très réaliste. Il a préparé plusieurs supports de cours : des enregistrements de temps de jeu où l’on voit son avatar évoluer dans différents quartiers de la ville, un fond de carte de la ville modélisée. Les élèves doivent compléter ce plan en s’appuyant sur les vidéos puis comparer le résultat obtenu avec le document présenté dans le manuel. L’opération a pour but de les aider à comprendre la structure et les caractéristiques de la cité étudiée tout en pointant du doigt les biais représentatifs (esthétiques, ludiques, idéologiques). La dernière étape du modèle SAMR, dite de la redéfinition, est atteinte quand la technologie permet la création de nouvelles tâches auparavant inconcevables. C’est ce qui se produit lorsqu’un enseignant choisit de se servir, pour construire l’égalité entre les femmes et les hommes, de jeux extrêmement stéréotypés et propose à ses élèves, quel que soit leur sexe, de jouer contre l’ordinateur en incarnant successivement un combattant puis une combattante. En effet, vivre un stéréotype de l’intérieur n’est pas la même chose que l’observer de l’extérieur et peut donner lieu à des débats certes possiblement animés mais assurément fructueux, les classes étant mixtes. Ainsi, gagner étant l’unique moyen, pour un joueur, de continuer à jouer, il apparaît, plutôt que de se moquer de son avatar, plus productif d’apprendre à le connaître et à tirer parti de ses forces et faiblesses. Autre exemple : un professeur utilise en cours d’histoire un jeu de gestion qui permet de construire une seigneurie. Il met ses élèves en petits groupes et leur propose trois scénarios différents : gagner le plus d’argent possible, avoir le plus d’âmes possible sur ses terres, avoir le domaine le mieux défendu. La plasticité du jeu, qui évolue différemment en fonction des choix des joueurs, est ici mise à contribution à deux reprises : lorsque chaque équipe poursuit l’objectif qui lui a été donné, lorsque les équipes confrontent et analysent leur parcours et les résultats auxquels elles sont parvenues. Elle permet de faire comprendre aux élèves des problématiques politiques et économiques relativement complexes.


Se lancer

En conclusion, quelques pistes peut-être pour celles et ceux qui seraient tentés par l’aventure. Concernant tout d’abord le choix du jeu. S’il semble évident qu’il convient de prendre en compte la signalétique PEGI [3] (Pan European Game Information) et d’opter pour un jeu en français vendu à un prix raisonnable, il faut aussi penser à privilégier les jeux faciles à prendre en main et qui proposent des parties relativement courtes. Concernant ensuite leur exploitation pratique, tout est possible. L’enseignant peut décider de travailler à partir de parties enregistrées, de faire jouer ses élèves individuellement et collectivement, ou bien encore de jouer devant ses élèves. Mettre les jeux vidéo au service des apprentissages n’est cependant pas forcément facile et n’a pas que des avantages. Le volume sonore de la classe s’en ressent. Les élèves ne sont pas nécessairement tous intéressés. Les inégalités ne disparaissent pas comme par magie. Les multiples expériences menées en France dans les écoles, les collèges, les lycées apportent néanmoins la preuve qu’on peut exploiter avec profit le potentiel motivationnel et les spécificités de ces jeux dès lors qu’ils sont intégrés dans un scénario pédagogique. Fanny Lignon Maitre de conférences cinéma audiovisuel à l’université Lyon 1 – laboratoire Thalim (Théorie et histoire des arts et des littératures de la modernité) Pour aller plus loin : Florence Quinche, « Apprendre avec les jeux vidéo » Romain Vincent, « L’utilisation des jeux vidéo à l’école » A lire également sur notre site : Le mariage de l’eau et du feu ? Jeu et éducation à travers l’histoire, par Chantal Barthélémy-Ruiz L’impact des loisirs des adolescents sur les performances scolaires, par Alain Lieury et Sonia Lorant S’entraîner aux inférences à travers les jeux d’enquêtes, par Martine Chomentowski [1] Julian Alvarez et Damien Djaoudi, Introduction au serious game, Questions théoriques, 2010. [2] Sébastien Wart, « Le modèle SAMR : une référence pour l’intégration réellement pédagogique des TIC en classe », sur le site École branchée. [3] Voir le site pegi.info

more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Le Libre au quotidien - Séries du Logiciel Libre au Québec #Édition2017 #S2LQ | #APELL

Le Libre au quotidien - Séries du Logiciel Libre au Québec #Édition2017 #S2LQ | #APELL | Territoire 2.0 | Scoop.it

 Les Séries du Logiciel Libre au Québec organisées par l'Association Professionnelle des Entreprises en Logiciels Libres, l’APELL, se renouvèlent pour l’édition 2017

. 3 jours

3 thèmes

3 « clientèles »

UNE thématique : « Le Libre au quotidien »

Pour qui ?

Gestionnaires des gouvernementaux : municipalités, provincial et fédéral, d’ici et d’ailleurs

Entreprises et organisations de différentes tailles dans tous les domaines d’expertise qui touchent de près ou de loin les logiciels libres au sein des technologies de l’information ;

Geeks, adeptes du logiciel libre, enseignants, professeurs, étudiants, consultants informatiques, professionnels en TI qui produisent, conçoivent et réalisent des solutions en logiciels libres. En prime pour les membres de l’APELL : des formations qui concernent la gestion d’entreprise


L’édition 2017 des Séries du Logiciel Libre au Québec (S2LQ) c’est trois dates et trois lieux à Montreal et à Québec :

Libre spécial Geek - Pour les mordus de technologie et se tient dans le cadre de la semaine de l’informatique libre (SQIL). Montréal mardi le 19 septembre 2017

Libre au Gouvernement - Comment et pourquoi le gouvernement peut maximiser son utilisation des technologies par le libre, réduire ses dépenses et valoriser l’expertise de ses professionnels. Québec lundi le 30 octobre 2017

Entreprises Libres et Agiles – des dirigeants d’entreprises échangent sur leurs expériences quant aux avantages, la sécurité et les économies à réaliser. Montréal mercredi le 31 janvier 2017

Le troisième millénaire marque le passage de notre société d’une pratique individualiste à une société où la communication est transversale et surtout collaborative, où la force de notre réseau est porteuse de succès. Évidemment, ces nouvelles pratiques obligent à revoir nos procédures. Les logiciels libres jouent un rôle majeur dans cette révolution et TOUS les secteurs de notre économie sont concernés : industriels, services, administrations publiques, etc. Le monde des affaires numériques et technologiques au Québec a besoin d’acteurs du changement pour permettre une plus grande pénétration des logiciels libres dans les organisations. En particulier dans l’appareil gouvernemental et parapublic qui utilisent encore énormément et à grand frais des logiciels propriétaires.

more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Securing Smart Cities Using Blockchain Technology - IEEE Conference Publication #GriffithUniversity 

Securing Smart Cities Using Blockchain Technology - IEEE Conference Publication #GriffithUniversity  | Territoire 2.0 | Scoop.it

Securing Smart Cities Using Blockchain Technology By Kamanashis Biswas, Sch. of Inf. & Commun. Technol., Griffith Univ., Gold Coast, QLD, Australia, & Vallipuram Muthukkumarasamy, Inst. for Integrated & Intell. Syst., Griffith Univ., Gold Coast, QLD, Australia

Abstract:

A smart city uses information technology to integrate and manage physical, social, and business infrastructures in order to provide better services to its dwellers while ensuring efficient and optimal utilization of available resources. With the proliferation of technologies such as Internet of Things (IoT), cloud computing, and interconnected networks, smart cities can deliver innovative solutions and more direct interaction and collaboration between citizens and the local government. Despite a number of potential benefits, digital disruption poses many challenges related to information security and privacy. This paper proposes a security framework that integrates the blockchain technology with smart devices to provide a secure communication platform in a smart city.

SECTION I.

Introduction In recent decades, the world has experienced unprecedented urban growth due to population increase, climate change, and scarcity of resources. Recent research shows that more people dwell in cities (54%) than rural areas (46%) and this number will increase to 66% by 2050 [1]. To cope with these crises, cities are focusing on modern technologies as well as aiming to reduce costs, use resources optimally, and create more liveable urban environment. The significant advancements in IoTs and wireless communications have made it easy to interconnect a range of devices and enable them to transmit data ubiquitously even from remote locations. However, these systems are more instrumented with open data such as locations, personal and financial information, and therefore, must be capable to defend against security attacks. The Kaspersky Lab shows that smart terminals such as bicycle rental terminals, self-service machines, and information kiosks have a number of security flaws [2]. These devices can be exploited by the cybercriminals and they may get access to personal and financial information of the users. It is also worth noting that implementation of traditional security mechanisms into a city's critical infrastructure to make it smarter has failed. Thus, new solutions based on the nature of the data (private or public) and communication platforms have to be developed to provide privacy, integrity, and data confidentiality. This paper proposes a security framework based on blockchain technology which allows to communicate the entities in a smart city without compromising privacy and security. SECTION II. Security Threats


SECTION II. Security Threats

Due to the heterogeneous nature of resource constrained devices, a smart city is vulnerable to a number of security attacks. It is important to identify those threats and their possible consequences in order to design an effective solution. A number of research has been conducted in this field such as Open Web Application Security Project (OWASP) enlisting common security attacks, Computer Emergency Response Teams (CERT) providing graphical representation of potential vulnerabilities, G-Cloud presenting a series of Cloud Computer Service Provider (CCSP) requirements [3][4][5]. The following threat categories are identified for the smart cities: i) Threats on Availability-are concerned with the (unauthorised) upholding of resources, ii) Threats on Integrity-include unauthorized change to data such as manipulation and corruption of information, iii) Threats on Confidentiality- include disclose of sensitive information by unauthorized entity, iv) Threats on Authenticity- are concerned with gaining unauthorized access to resource and sensitive information, and v) Threats on Accountability-include denial of transmission or reception of a message by the corresponding entity.


SECTION III. The Proposed Security Framework

A. Blockchain Technology

Blockchain is a peer-to-peer distributed ledger technology which records transactions, agreements, contracts, and sales [6]. Originally developed to support crypto-currency, blockchain can be utilized for any form of transactions without an intermediary. The benefit of blockchain is that an attacker has to compromise 51% of the systems to surpass the hashing power of the target network. Thus, it is computationally impractical to launch an attack against the blockchain network. The following example demonstrates working procedures of the blockchain technology. Let A and B be two entities in a blockchain based parking system and A is paying parking fee to B, the parking authority. This transaction is represented online as a block including information such as block number, proof of work, previous block, and transaction records and this block is broadcast to every entity in the network. The other entities verify the block and if more than 50% of the entities approve the block then the transaction is confirmed and added to the chain. After that, the fee is transferred from entity A to authority B's account.


B. Security Framework

1) Physical Layer As shown in Fig. 1, smart city devices are equipped with sensors and actuators which collect and forward data to the upper layer protocols. Some of these devices such as Nest thermostat and Acer Fitbit are vulnerable to security attacks due to lax encryption and access control mechanisms [7]. Further, there is no single standard for smart devices so that the data generated by them can be shared and integrated to provide cross-functionality. Vendors require an agreed-upon implementation and communication standards to overcome these problems in smart devices.

2) Communication Layer

In this layer, smart city networks use different communication mechanisms such as Bluetooth, 6LoWPAN, WiFi, Ethernet, 3G, and 4G to exchange information among different systems. The blockchain protocols need to be integrated with this layer to provide security and privacy of transmitted data. For example, the transaction records can be converted into blocks using telehash which can be broadcast in the network. Protocols like BitTorrent can be used for peer to peer communication whereas Ethereum can provide smart contract functionalities. However, integration of existing communication protocols with blockchain is a major challenge since the requirements vary from application to application. A potential solution can be implementing multiple blockchains with the help of a blockchain access layer to provide application specific functionalities. 3) Database Layer In blockchain, distributed ledger is a type of decentralized database that stores records one after another. Each record in the ledger includes a time stamp and a unique cryptographic signature. The complete transaction history of the ledger is verifiable and auditable by any legitimate user. There are two different types of distributed ledger in practice: i) permissionless and ii) permissioned. The key benefits of permissionless ledger are that it is censorship-resistant and transparent. However, the public ledger has to maintain complex shared records and it consumes more time to reach the consensus compared to the private ledger. Further, public ledgers may also be subjected to anonymous attacks. Therefore, it is recommended to use private ledgers to ensure scalability, performance, and security for realtime applications like traffic systems in a smart city. 4) Interface Layer This layer contains numerous smart applications which collaborate with each other to make effective decisions. For example, a smart phone application can provide location information to the smart home system so that it turns on the air conditioner 5 minutes prior to reach at home. However, the applications should be integrated carefully since vulnerabilities in one application may give intruders access to other dependent processes. 

SECTION IV.

Conclusion

This paper proposes a blockchain based security framework to enable secure data communication in a samrt city. The main advantage of using blockchain is that it is resilient against many threats. Further, it provides a number of unique features such as improved reliability, better fault tolerance capability, faster and efficient operation, and scalability. Thus, integration of blockchain technology with devices in a smart city will create a common platform where all devices would be able to communicate securely in a distributed environment. The future works will aim to design a system level model in order to investigate the interoperability and scalability of different platforms used in a smart city.

more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Lancement de l'Interface de Consultation de l'Édition numérique collaborative et critique de l'Encyclopédie #EnccreICE #Diderot

Édition Numérique Collaborative et CRitique de l’Encyclopédie ou Dictionnaire raisonné des sciences, des arts et des métiers (1751-1772)

Présentation de l'édition Librement accessible, l’Édition Numérique, Collaborative et CRitique de l’Encyclopédie (ENCCRE) met pour la première fois à disposition de tous les connaissances des chercheurs d’hier et d’aujourd’hui sur l’Encyclopédie, en s’appuyant sur un exemplaire original et complet de l’ouvrage, conservé à la Bibliothèque Mazarine, intégralement numérisé pour l’occasion. L’interface numérique dont nous avons doté l’édition vous permettra à la fois d’admirer la beauté de cet exemplaire, de redécouvrir le spectacle de ses 2 579 planches, d’y naviguer de façon intuitive et innovante, et d’y effectuer les recherches les plus variées, comme les plus pointues.

Grâce aux dernières possibilités offertes par le numérique, et à une équipe internationale de 120 chercheurs de tous horizons, historiens des différents domaines de l’Encyclopédie, ingénieurs, étudiants et bénévoles, cette édition est conçue et construite pour être enrichie en permanence, de façon collaborative. Diderot lui-même, évoquant la nécessaire collaboration des savants « spécialistes » à l’Encyclopédie, écrivait : Quand on vient à considérer la matière immense d’une Encyclopédie, la seule chose qu’on aperçoive distinctement, c’est qu’elle ne peut être l’ouvrage d’un seul homme [...]. Qui est-ce qui définira exactement le mot conjugué, si ce n’est un géomètre ? le mot conjugaison si ce n’est un grammairien ? le mot azimuth si ce n’est un astronome ? le mot épopée si ce n’est un littérateur ? (article ENCYCLOPÉDIE) De la même façon, l’ENCCRE fait appel à l’historien des mathématiques pour annoter les articles de mathématiques, à l’historien de la grammaire, pour les articles de grammaire, etc. Elle s’appuie sur une plateforme en ligne partagée par l’équipe, qui permet d’envisager un processus d’édition dynamique, envisagé sur le long terme, où se croisent et se conjuguent des compétences multiples et complémentaires. Pensée pour en démocratiser l’accès, l’ENCCRE veut ainsi constituer un lieu de rencontre, de partage et d’échange sur l’Encyclopédie, donner envie au plus grand nombre de la découvrir ou de la redécouvrir, et faire revivre l’un de ses plus beaux atours, sérieusement en danger aujourd’hui : son esprit critique.


1. Un premier exemplaire original et complet

L’ENCCRE s’appuie sur le premier exemplaire numérisé original, homogène et complet de l’Encyclopédie. Elle pallie ainsi une lacune étonnante, commune à toutes les versions numériques jusqu’alors disponibles sur Internet : l’absence d’une édition expertisée répondant à ces critères pourtant indispensables quand on connaît l’histoire éditoriale mouvementée de l’œuvre, les multiples réimpressions, reproductions, contrefaçons dont elle a fait l’objet, ou les nombreux exemplaires hybrides (formés de volumes de plusieurs éditions différentes) qui ont pu être constitués au cours des siècles suivants. Cet exemplaire est le premier des deux exemplaires conservés à la Bibliothèque Mazarine. L’analyse qui en a été faite, folio par folio, montre que ses 17 volumes de texte et 11 volumes de planches rassemblent toutes les caractéristiques du premier tirage de la première édition de l’Encyclopédie (voir la Description matérielle de l’exemplaire). Il comporte aussi, relié à la fin du tome I, le Prospectus de 1750. Acquis dès le xviiie siècle au moment de la parution, livraison après livraison, puis mis à la disposition des usagers de la bibliothèque, sans interférence avec des volumes issus d’autres exemplaires, il possède aussi l’avantage de n’avoir jamais quitté son lieu de conservation initial.

2. La mise en valeur éditoriale de l’œuvre originale

À l’heure où les bibliothèques, dans leur souci de protéger les ouvrages anciens, ne permettent généralement plus de consulter les volumes papier de l’Encyclopédie, mais orientent les lecteurs vers Internet, il paraissait essentiel que l’édition puisse donner accès à l’œuvre originale. Ceci nécessite en particulier de garantir un lien fort et constant entre, d’un côté, l’édition numérique dématérialisée proposée par le biais des écrans et, de l’autre, la matérialité de l’exemplaire choisi. Dans ce but, la numérisation intégrale de l’exemplaire de la Bibliothèque Mazarine a été effectuée dans la meilleure définition possible et en veillant à ce qu’elle restitue les caractéristiques concrètes de l’ouvrage : grain du papier, épaisseur des volumes, courbure des pages, etc. Dans cette même perspective, l’ENCCRE donne un accès direct et central, dès sa page d’accueil, à ses 28 volumes in-folio. Un clic sur la tranche d’un volume permet d’afficher les différentes parties de son contenu, dans l’ordre où elles s’y présentent matériellement, sous forme d’une table des matières. L’édition repose en outre sur un autre principe éditorial essentiel : la mise en regard, systématiquement proposée par défaut, entre la transcription du contenu de l’Encyclopédie sur la partie gauche de l’écran et, sur la partie droite, l’image numérisée de la page de l’exemplaire correspondante. Des outils permettent d’agrandir ou de rétrécir le fac-similé numérique, de s’y déplacer librement, d’afficher l’image en plein écran, ou encore d’accéder à un mode de navigation permettant de feuilleter numériquement le volume dans un sens ou dans l’autre, tout en gardant la possibilité de revenir facilement à son point de départ. Le lecteur est constamment informé de l’endroit où il se trouve, de l’exemplaire qu’il consulte, y compris dans les rares cas (une demi-colonne de texte au cours des articles Lis et les deux planches représentant les « fromages d’Auvergne ») pour lesquels nous avons dû remplacer le fac-similé du premier exemplaire de la Mazarine (où ces pages ont été dérobées) par celui du second. Il dispose aussi d’un lien lui permettant, où qu’il se trouve, d’accéder à la description matérielle de l’exemplaire. Grâce à ces choix éditoriaux et aux fonctionnalités mises en place, grâce aussi à la très haute définition de la numérisation dont nous disposons, l’ENCCRE permet de confronter à tout moment l’original avec la transcription (nécessairement imparfaite) que nous en donnons, d’apprécier la beauté de l’exemplaire jusque dans ses moindres détails, et de redécouvrir le spectacle de ses planches, réparties dans les onze volumes du Recueil de planches, sur les sciences, les arts libéraux et les arts méchaniques, avec leurs explications.

3. Une navigation aisée dans les volumes de planches

On ne se repère pas aussi facilement dans les 11 volumes de planches que dans les 17 volumes de textes. Contrairement à ceux-ci, formés d’articles ordonnés selon la logique alphabétique d’un dictionnaire, chaque volume de planches s’organise autour d’une suite de domaines (pouvant correspondre à une science, un art ou un métier) constitués de deux sections : une série de planches numérotées, précédée d’une première partie d’explications qui les décrivent et les commentent. Les sections contenant les planches ne sont pas paginées, et les numéros indiqués sur les explications sont réinitialisés au début de chaque domaine, si bien que le lecteur ne dispose pas de repères évidents pour s’y retrouver. La logique de lecture à l’intérieur de chaque volume de planches repose ainsi sur la mise en relation entre une planche et la section d’explication qui lui correspond à l’intérieur du domaine consulté. Il n’est pas rare, pour les domaines les plus étendus, que la planche se trouve à une centaine de pages de son explication. Il arrive aussi souvent que les planches d’un même domaine soient elles-mêmes organisées en sous-domaines, et renumérotées en conséquence, complexifiant d’autant l’identification de la planche et de l’explication qui lui correspond dans le volume. Pour rendre la navigation la plus accessible et intuitive possible, les fonctionnalités de lecture et de navigation de l’ENCCRE conservent cette logique d’organisation par domaine en permettant d’afficher automatiquement la planche en regard de son explication à l’écran, que l’on soit en train de faire défiler le texte de l’explication d’un domaine (la planche qui coïncide avec la partie de l’explication consultée est alors mise à jour au fur et à mesure de l’avancée) ou de passer d’une planche à une autre à l’intérieur du domaine consulté (c’est la partie de l’explication qui sera mise à jour dans ce cas, en fonction de la planche affichée).


4. L’exploration des réseaux de liens de l’Encyclopédie

L’Encyclopédie contient un réseau dense et complexe de liens entre ses parties : des renvois entre articles, des renvois des articles vers les planches, et en sens inverse, des explications des volumes de planches vers les articles. Sachant que l’ouvrage a été largement écrit au fur et à mesure de l’ordre alphabétique, et compte tenu du nombre de ses auteurs, des disparitions et arrivées au cours des 25 ans de cette aventure éditoriale des plus mouvementée, l’ensemble des liens ainsi tissés d’un bout à l’autre de l’ouvrage n’a pas toujours la cohérence à laquelle on pourrait s’attendre : si la plupart des renvois permettent en effet d’explorer la liaison des connaissances, d’autres mènent vers des voies détournées, parfois sans issues, illustrant ainsi ce que Diderot décrit, dans l’article ENCYCLOPEDIE, comme « les détours nombreux d’un labyrinthe inextricable ». Afin de rendre compte avec la plus grande fidélité de ces dizaines de milliers de passerelles entre les savoirs, les articles et les planches, nous avons opté pour une solution ambitieuse, qui a consisté, à partir d’un premier travail effectué par la communauté Wikisource, à vérifier le repérage de chaque renvoi dans la transcription, puis à corriger et préciser la cible correspondante dans l’ouvrage (selon le découpage en adresses et entrées adopté dans la nomenclature de l’ENCCRE), ou l’impasse à laquelle il conduit. Nous y avons adossé un mode de lecture et de navigation confortable, fondé sur plusieurs fonctionnalités : la possibilité de pré-visualiser le texte cible ou la planche cible sans quitter l’endroit consulté, soit dans une pop-up, soit dans une troisième partie de l’écran, affichable à la demande, ou, à l’inverse, la possibilité de quitter l’endroit consulté pour se rendre à l’article ou la planche visée par le renvoi.


5. Une description fine du contenu de l’ouvrage

L’ENCCRE est la première édition critique de l’Encyclopédie, c’est-à-dire la première édition à tenter d’expliquer et de remettre en perspective son contenu pour les lecteurs d’aujourd’hui. Répondre à ce défi de façon moderne sans trahir l’ouvrage imposait d’assurer la meilleure articulation possible entre son contenu original, les éléments (que nous avons appelé les constituants encyclopédiques) qui possèdent des fonctions particulières à l’intérieur de ce contenu, et les questions que ces fonctions posent sur l’œuvre, son histoire et ses enjeux. La mise en pratique d’un tel projet supposait d’avoir défini théoriquement ces constituants (ce que nous avons fait au cours d’une longue phrase préparatoire, en nous appuyant sur les études disponibles, à commencer par celles fondatrices de Jacques Proust, John Lough et Richard N. Schwab), puis d’avoir repéré manuellement toutes leurs manifestations dans la transcription du texte de l’œuvre. Quelques chiffres L’édition repose sur une transcription issue de la saisie de l’Encyclopédie établie par la communauté Wikisource dans son état d’avril 2015, intégralement convertie dans un format XML compatible avec notre politique éditoriale, et considérablement corrigée et enrichie depuis lors. Notre équipe y a collaborativement repéré plus 74 000 vedettes, plus de 67 000 désignants, plus de 26 600 indications grammaticales et plus de 41 000 signatures. Elle a vérifié et corrigé les cibles de plus de 60 000 renvois. Elle a aussi procédé à la saisie des diverses informations (titres, noms de graveurs et de dessinateurs) figurant sur les 2 579 planches de l’édition. Par exemple, l’Encyclopédie étant un dictionnaire, les articles sont introduits par des titres, les vedettes, dont nous avons repéré toutes les occurrences. Nous avons de même procédé au balisage, dans la transcription, de toutes les signatures identifiées, ainsi que de toutes ces mentions en italique, appelées « désignants », qui indiquent les domaines de savoir dont relèvent les articles correspondants. D’autres constituants sont en cours de repérage, à commencer par les renvois, déjà balisés en très grand nombre – c’est sur ce balisage que repose le système de navigation décrit plus haut –, ou les œuvres mentionnées par les auteurs. Dans l’édition, le résultat de ce travail se présente, pour chaque article, sous la forme d’une fiche d’identité récapitulant tous les constituants repérés à l’instant t. Cette fiche est automatiquement générée et donc conçue pour être mise à jour dès lors qu’un nouveau constituant a pu être balisé dans l’article correspondant. Elle permet d’obtenir la définition de chaque constituant, de visualiser à la demande, grâce à un surlignage couleur, les occurrences correspondantes dans la transcription placée en regard, et d’accéder aux notes explicatives que nous avons pu, par ce moyen, directement associer à tel ou tel type de constituant. Grâce à ce mode de description, qui permet de proposer des informations finement articulées avec le contenu des articles, nous pouvons ainsi aisément avertir le lecteur, ce que l’on ne peut guère deviner au premier abord, que la marque (–) visible à la fin d’un article correspond à la signature de d’Holbach, que la marque (O) est celle de D’Alembert, en veillant à le renvoyer aux endroits (parfois bien cachés) de l’Encyclopédie où ces informations sont données. Nous sommes de même en mesure de désambiguïser une œuvre mentionnée (parfois de façon très allusive) dans le texte en la liant à une référence bibliographique précise, puis d’y associer tous les commentaires pertinents sur son statut ou son rôle éventuels dans la pensée de l’auteur ou sur le processus de composition de l’article (cette œuvre a par exemple servi à l’encyclopédiste pour rédiger telle ou telle partie du texte, etc.). Ce mode de description présente aussi bien d’autres avantages : il permet en particulier de fournir des modes d’accès à l’ouvrage rigoureusement documentés, et des options de recherche précises et solides.

6. Les accès par la nomenclature, par contributeur et par domaine L’édition se devait non seulement de restituer numériquement des aspects essentiels de l’ouvrage original, tels que le réseau des liens qui le sillonnent ou la matérialité de l’exemplaire, mais aussi de permettre d’accéder à d’autres dimensions incontournables de l’œuvre : parmi elles, un mode de consultation donnant spécifiquement accès à la contribution de tel ou tel auteur d’articles, dessinateur ou graveur de planches et, l’Encyclopédie étant également un dictionnaire, un mode de navigation permettant d’effectuer des recherches dans sa nomenclature. Nous y avons ajouté un autre mode de parcours, certes des plus naturels pour le lecteur d’aujourd’hui, mais également délicat à construire : la possibilité d’accéder aux articles et aux planches par le biais d’une liste de domaines de connaissances et de pratiques. D’un point de vue méthodologique, ces trois modes d’accès, tels qu’ils sont présentés dans l’édition, reposent directement (1er principe) sur le repérage exhaustif des constituants encyclopédiques correspondants (vedettes, signatures, désignants) ainsi que sur trois autres principes : 2e principe : la possibilité de lier ces constituants entre eux ou avec des notions critiques externes au contenu original de l’ouvrage (les notions de domaine et de contributeur, par exemple) ; 3e principe : la nécessité d’annoter les liens ainsi tissés chaque fois qu’ils réclament une justification ou une précision particulière ; 4e principe : la capacité, en l’absence de constituant encyclopédique repérable dans un article, à créer un lien direct, mais nécessairement annoté, entre cet article et une notion critique particulière. L’accès par la nomenclature Partant du premier principe, le repérage des constituants encyclopédiques, et sachant que notre édition définit un article de l’Encyclopédie comme une portion de texte introduite par une vedette (d’adresse ou d’entrée), la nomenclature de l’ENCCRE est naturellement générée à partir de l’ensemble des vedettes d’adresse et d’entrées, telles qu’elles ont été repérées dans la transcription. Le mode d’accès correspondant consiste simplement à y effectuer des requêtes. L’accès par contributeur La notion de contributeur dans l’édition fait référence à toute personne à laquelle telle ou telle partie de l’œuvre peut être attribuée, soit parce que cette partie contient sa signature, soit parce que des études ont pu montrer que ce contributeur en est l’auteur. D’après cette définition, le mode d’accès correspondant implique donc l’établissement de deux listes : une liste des articles signés et une liste des articles attribués par la recherche – le principe étant bien entendu le même pour les planches. La première liste est directement construite à partir du repérage des signatures dans la transcription (selon le premier principe de notre structure) et grâce à l’association de chaque signature ainsi repérée avec le contributeur qui lui correspond (selon le deuxième principe). Le troisième principe, qui donne la possibilité d’annoter le lien établi, permet de justifier les cas plus complexes, tels que les erreurs typographiques ou les erreurs d’attribution (signalées dans les errata ou identifiées par la recherche), ou encore, d’apporter des informations utiles au lecteur, en le renvoyant par exemple, comme expliqué plus haut, à la partie de l’Encyclopédie qui explicite la correspondance entre une marque et le nom du contributeur correspondant. La liste des articles attribués par la recherche est générée à partir du quatrième principe, en liant le contributeur avec l’article non signé qui lui a été attribué, étant entendu que la note associée à ce lien doit impérativement contenir la justification de cette attribution – en renvoyant par exemple, a minima, à l’étude contenant ces informations. L’accès par domaine La mise en place de l’accès par domaine répond à une logique assez similaire, si ce n’est que la notion même de domaine résulte d’une analyse critique préalable des désignants repérés et des titres des explications de planches, cette analyse ayant progressivement permis, par regroupement successifs de ces constituants, de dresser une liste de 312 domaines de connaissances et de pratiques abordés dans l’Encyclopédie. La liste des articles de chaque domaine a ensuite pu être établie à partir des désignants repérés liés à ce domaine (selon le premier et le deuxième principe, avec une annotation de ce lien, selon le troisième principe) et, pour les articles sans désignants, à partir de procédures critiques permettant (selon le quatrième principe) d’établir un lien direct, rigoureusement documenté dans la note associée, entre le domaine et l’article. Les planches, déjà organisées par domaines dans les onze volumes correspondants, ont directement été indexées à partir de l’analyse initiale des titres d’explications. Éditorialement, les modes d’accès par contributeur et par domaine prennent la forme d’options de recherche spécifiques permettant de trouver un domaine ou un contributeur particulier et d’accéder à une fiche dédiée. Les fiches contributeur La fiche d’un contributeur fournit une notice bio-bibliographique incluant une présentation générale de son apport à l’Encyclopédie, puis les listes de ses articles et de ses planches (chaque article et chaque planche étant affichable par simple clic) signés et attribués, la première liste, celle des articles et des planches signés, étant en outre complétée par l’inventaire des formes distinctes des signatures repérées dans la transcription (plus de 60 pour le chevalier de Jaucourt !). Les fiches domaine Les fiches des domaines ont, quant à elle, la particularité d’être présentées par regroupements thématiques afin de suggérer des voisinages (par exemple, le regroupement Marine comprend aussi les domaines Navigation, Rivière et Galère). La présentation de chaque domaine, à l’intérieur de ces regroupements, donne ensuite à lire une notice explicitant la façon dont le domaine a été construit, ainsi que les listes d’articles et de planches qui leur ont été associés, complétées par la liste des formes distinctes de désignants sur lesquelles l’ensemble s’appuie. Naturellement, le bien-fondé de ces listes repose pour une large part sur l’exhaustivité du repérage des constituants encyclopédiques correspondants, ainsi que sur la conformité de ce repérage avec la façon dont ces constituants ont préalablement été définis. Afin de garantir la mise à disposition de modes d’accès rigoureux, ce travail a déjà été effectué de façon collaborative pour les vedettes, les titres des planches, les désignants et les signatures. Il a aussi été intégralement revu, pour la nomenclature, grâce à une confrontation scrupuleuse avec l’inventaire établi par R. N. Schwab sur la base d’une définition de la notion d’article différente de la nôtre – la fiche d’identité rend compte de cette confrontation en précisant, pour chaque article, son numéro (ou ses numéros) dans l’inventaire de Schwab. L’exhaustivité de ce repérage et des liens déjà tissés entre constituants et notions critiques présente un autre avantage, et non des moindres, celui de fournir un crible de recherche permettant d’effectuer des requêtes plus complexes à l’intérieur du texte de l’Encyclopédie.

7. Un moteur de recherche évolué, adapté à l’Encyclopédie

En complément des modes d’accès dans la nomenclature, par contributeur et par domaine, l’ENCCRE offre bien sûr aussi la possibilité d’effectuer des recherches dans l’intégralité du texte de l’œuvre, qu’il s’agisse des articles, des textes liminaires (tels que le « Discours préliminaire des éditeurs »), ou des explications de planches. Un moteur simple permet classiquement de rechercher un ou plusieurs termes, de façon approchée, grâce aux troncatures, ou sous la forme d’expressions exactes. Le moteur avancé s’appuie quant à lui sur les constituants repérés et les modes d’accès par domaine et contributeur pour permettre d’effectuer des requêtes plus complexes : il devient ainsi possible de rechercher dans l’ensemble des articles signés par ou attribués à tel contributeur, portant telle signature, tel désignant, contenant tel renvoi, relatif à tel et tel domaine, dans tel ou tel volume de l’œuvre, etc. Les résultats, renvoyés avec le maximum d’informations, peuvent être de nouveau affinés grâce à un système de facettes. 8. Un éclairage de l’œuvre à plusieurs échelles L’édition propose enfin différents niveaux de commentaires et, par ce biais, un éclairage à plusieurs échelles devant permettre de donner les explications à l’endroit où le lecteur les cherche. Le premier niveau permet d’effectuer des commentaires ponctuels éclairant le sens d’un terme, identifiant une personne mentionnée, dévoilant la portée d’une allusion, signalant une variante, traduisant un passage en grec, en latin, etc. Quoique ce niveau d’annotation se rapproche le plus des notes classiques de l’édition papier, le format numérique élargit toutefois sensiblement les capacités d’expressivité de l’annotateur, qui peut ici faire apparaître le caractère, le mot, la phrase, le (ou les) paragraphe(s) sur lesquels il a souhaité faire porter son commentaire. Le deuxième s’appuie sur la possibilité de faire porter des notes sur les constituants encyclopédiques repérés dans la transcription de l’ouvrage. Aux notes déjà créées pour justifier ou informer la mise en relation de tel constituant avec telle notion critique, l’éditeur peut ajouter d’autres annotations dont les visées explicatives seront bien sûr spécifiques du constituant annoté. La typologie des constituants prévue dans notre structure éditoriale conduit, de cette façon, au déploiement d’une typologie d’annotations permettant de répondre localement à des questions importantes : le problème des attributions (qui a écrit quoi ?) en lien avec le repérage des signatures ; l’identification des citations, des références bibliographiques et des sources d’un article (à quels ouvrages l’auteur renvoie-t-il, ou a-t-il emprunté, quels ouvrages cite-il ?) en lien avec le repérage des œuvres mentionnées ; la question des frontières des savoirs en lien avec les renvois et le repérage des désignants ; les choix relatifs à la nomenclature du dictionnaire en lien avec le repérage des vedettes. L’étage suivant, plus général, consiste logiquement en la présentation de l’article dans son ensemble, ce qui inclut un exposé de ses enjeux, ainsi qu’une bibliographie des études dont il a fait l’objet. Ce dossier critique associé à un article synthétise par ailleurs le résultat d’enquêtes types (par exemple sur les sources éventuellement compilées ou la réception de l’article), selon un protocole de recherche distribué aux éditeurs. Mais l’édition donne aussi à lire des dossiers transversaux apportant des informations ou des commentaires pertinents pour une série plus ou moins grande d’articles. Tel est le cas des fiches domaines et contributeurs déjà évoquées. D’autres questions, liées à l’évolution des travaux sur des questions de recherche particulières, peuvent également être traitées par ce biais. L’ENCCRE est enfin dotée d’une riche documentation générale sur l’ouvrage, à travers laquelle les lecteurs peuvent s’informer sur ce qu’est l’Encyclopédie, ce que sont ses héritages et ses innovations, son histoire éditoriale mouvementée, ses acteurs, sa fabrique, ses sources ou encore sa réception, ses suites et diverses métamorphoses au xviiie siècle. 9. Une édition collaborative, dynamique, pensée à long terme L’Encyclopédie est bien sûr une œuvre trop riche et complexe pour pouvoir en imaginer une édition exhaustive, achevable à un instant t. La mise en ligne du 19 octobre 2017 ne constitue donc qu’une première étape d’un travail fondamentalement pensé sur le long terme. Quelques chiffres À la date de la mise en ligne, l’édition contient plus de 42 000 notes relatives aux attributions des articles, près de 72 000 notes relatives aux domaines. Parmi les plus de 74 000 articles de l’Encyclopédie, plus de 200, touchant à tous les disciplines, ont été publiés avec les commentaires et les éclairages des chercheurs de notre équipe. Plus de 500 autres sont d’ores et déjà en préparation pour une publication prochaine sur l’édition. Derrière l’édition et son interface de consultation se cache de fait un autre outil : une interface numérique d’édition permettant à chaque membre de l’équipe de s’authentifier, de créer et de rédiger ses commentaires, de saisir les dossiers de présentation des articles ou les dossiers transversaux dont il a la charge, puis de soumettre le tout à un processus de relecture et de validation scientifique, chapeauté par un comité, au terme duquel le travail peut être publié sur l’interface de consultation ouverte au public. La publication de chaque note et de chaque dossier va de pair avec la génération d’une référence bibliographique, d’une date et d’un permalien unique garantissant à l’éditeur la citabilité de son travail selon les normes académiques usuelles. Cette même interface donne aussi la possibilité de repérer de nouveaux constituants, de déclarer les cibles de renvois et d’alimenter, de façon collaborative, deux base de données bibliographiques : l’une hébergeant les données relatives aux œuvres mentionnées dans l’ouvrage ; l’autre, à laquelle l’édition donne également accès, contenant les références des études dédiées à l’Encyclopédie. Car tel est l’un des principaux avantages du numérique dans cette aventure : un moyen de rassembler et de croiser les compétences des chercheurs sur l’Encyclopédie, quels que soient leurs pays, leurs cultures, leurs spécialités, et d’en partager le résultat en un même lieu, accessible à tous.


more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

NetPublic » Créer un fablab : Set d’icônes pour imaginer et fabriquer dans un laboratoire de fabrication numérique

NetPublic » Créer un fablab : Set d’icônes pour imaginer et fabriquer dans un laboratoire de fabrication numérique | Territoire 2.0 | Scoop.it
Un jeu d’icônes pour votre fablab déjà en fonctionnement ou en projet ? C’est possible. Le LimouziLab (fablab associatif à Limoges) met à disposition un set complet d’icônes (en dossier .zip, icônes au format Adobe Illustrator) créés par Laura Pandelle, designer en innovation sociale, images initialement réalisées pour le Jokkofablab (fablab à Dakar) et aussi par Arthur Schmitt.

Des icônes en Creative Commons pour innover avec un fablab
Ces icônes mis à disposition gracieusement et en Creative Commons permettent d’imaginer l’offre de services d’un fablab, de modéliser ce que peut apporter le fablab, de penser projets en amont / durant / en aval… De la phase de l’idée, puis l’étape de la conception à l’impact en passant par la fabrication numérique en n’oubliant par le matériel (machines, technique et électronique). Les actions, interactions et l’implantation locale font aussi l’objet d’icônes spécialisés comme les outils nécessaires pour le montage d’un fablab (exploration, communication, co-conception, documentation).
Définir un fablab en combinant des icônes
 Toutes ces ressources graphiques ont un point commun : faire réfléchir à la définition d’un fablab qui peut varier d’un lab à un autre : Qu’est-ce qu’un fablab ? Que trouve-t-on dans un fablab ? Autour d’un fablab De quoi modéliser avec soin un fablab et associer des partenaires locaux (usagers, associations, entreprises, décideurs publics…) à ce processus.

more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

LibrePlanet 2018 Call For Sessions on free software | Free Software Foundation

LibrePlanet 2018 Call For Sessions on free software | Free Software Foundation | Territoire 2.0 | Scoop.it
LibrePlanet 2018 Call for Sessions The Call for Sessions is open until Wednesday, November 2th, 2017 at 10:00 EST (14:00 UTC). To access the form itself, you must view this page while logged in. If you don't already have a my.fsf.org account, please create one here. Every year, LibrePlanet brings together developers, policy experts, activists, hackers and end users. It's a place to learn new skills, share accomplishments and face challenges to computer user freedom together as a community. 2018's LibrePlanet will be held on Saturday and Sunday, March 24th and 25th in Cambridge, MA. If you're new to the community, check out session descriptions and recordings from the previous LibrePlanet conference. LibrePlanet is defined by its combination of technical talks with non-technical sessions on free software activism, culture, and current events. We are especially interested to see proposals from people who use free software or apply its values for social benefit, from academic research to community organizing, education to medicine and the arts. We're committed to increasing the participation of speakers belonging to groups traditionally underrepresented at free software conferences, including women and people of color. If you're comfortable sharing demographic information, there is an area for it on this form, but your proposal will not be judged negatively if you leave those fields blank. It's important to us to provide sessions that are friendly to newcomers, as well as those that help experienced hackers push their technical skills. Whatever your experience level or the experience level of your audience, we want to include your session! (As a corollary of this, we welcome sessions for kids or teens.) The best way to write a strong proposal is to start by exploring the programs from previous years: 2017, 2016, 2015, 2014, 2013. Language is an important way to show commitment to computer user freedom. In your proposals and your presentation, please use terms like "free software" and "GNU/Linux" and avoid phrases like "open source." Scholarships While we do not provide honorariums for our speakers, speakers attend gratis and are eligible to apply for travel scholarships. So yes, please submit a proposal even if you live far away and aren't sure you can afford a plane ticket! Everyone who has submitted a proposal, will receive an email notification when the travel scholarship application opens.
more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Les défis du libre accès des données par Jean-François Venne | Affaires Universitaires

Les défis du libre accès des données par Jean-François Venne | Affaires Universitaires | Territoire 2.0 | Scoop.it

Chercheurs, universités et organismes subventionnaires seront appelés à définir les modalités du libre accès des données de recherche.


Les chercheurs doivent désormais rendre rapidement disponibles leurs données de recherche et non seulement leurs résultats. Universités et organismes subventionnaires devront être au rendez-vous pour les accompagner dans cette nouvelle tâche. « Encore récemment, les chercheurs publiaient leurs résultats de recherche, mais pas les données, rappelle Dre Marie-Josée Hébert, vice-rectrice à la recherche, à la découverte, à la création et à l’innovation de l’Université de Montréal (UdeM). Ils craignaient qu’un tel partage n’aide une équipe de recherche rivale à les devancer. Le passage à une culture de données ouvertes est un changement de paradigme et pose plusieurs défis. » Ces enjeux ont été discutés récemment à la 10e conférence de l’organisation internationale Research Data Alliance (https://www.rd-alliance.org/), tenue à l’UdeM, et lors de laquelle Marie-Josée Hébert présentait une allocution. Selon elle, le libre accès aux données comporte d’énormes avantages pour la communauté scientifique. « Cela facilite le contrôle de la qualité des recherches et permet de maximiser l’utilisation des données, avance-t-elle. Un même groupe de données peut être analysé sous des angles divers, avec des méthodologies différentes. Il génère donc plus de connaissances. »


Craintes et défis

Vincent Larivière, titulaire de la Chaire de recherche du Canada sur les transformations de la communication savante à l’UdeM, trouve lui aussi bien des vertus aux données ouvertes, comme une transparence accrue des résultats de la recherche et une meilleure visibilité pour les chercheurs, puisque cela multiplie les points d’entrée vers leurs travaux. Toutefois, cette nouvelle dynamique pose des défis. Certaines revues scientifiques, par exemple, exigent que les données soient dévoilées dès la publication du premier article. Or, elles doivent souvent servir de base à la rédaction d’autres articles du même chercheur. Certains craignent donc qu’en les rendant disponibles si tôt, elles soient utilisées par d’autres pour les devancer. « Ces craintes sont normales dans un contexte où les chercheurs sont évalués et financés en fonction de leur production, explique Vincent Larivière. Pour contrer cela, certains souhaiteraient que des données puissent être placées sous embargo pendant un an ou deux suivant la parution de l’article. D’autres envisagent une forme d’incitatif, comme une citation rattachée à la réutilisation des données, par exemple. » Les organismes subventionnaires fédéraux exigent déjà que les résultats de recherches issus de projets qu’ils subventionnent soient rendus publics 12 mois après la publication de l’article. « Cette mesure vise à ménager les éditeurs commerciaux de revues scientifiques, en leur réservant les articles pendant un an, note M. Larivière. Les politiques sur le partage des données devront, elles, répondre aux enjeux des chercheurs. Y aura-t-il un embargo sur les données? Devront-elles être accessibles à tous ou certaines pourront-elles faire l’objet de partages restreints sur des bases de données privées? Il y a plusieurs décisions à prendre. » Dans tout cela, il serait facile d’oublier que le libre accès aux données n’est pas simple. Il faut assurer une interopérabilité entre des bases de données fonctionnant sur des logiciels différents. « Les chercheurs doivent aussi documenter de manière très précise leurs données, pour que les autres en comprennent la compilation et les variables, ce qui exige temps et ressources », ajoute Vincent Larivière.


Le soutien des universités

Les universités ont un rôle crucial à jouer sur ce plan, croit Marie-Josée Hébert. « Nous devons outiller les chercheurs afin qu’ils planifient la préservation et la diffusion de leurs données en amont de leur projet », dit-elle. À l’Université de Montréal, les bibliothèques et le bureau de la recherche unissent leurs efforts pour développer des formations et dialoguer avec les chercheurs, afin de mieux comprendre leurs besoins. « Nous comptons sur une équipe très dédiée aux bibliothèques, désireuse de soutenir la communauté universitaire dans la diffusion des résultats de recherche, poursuit Marie-Josée Hébert. Il faut créer des outils complémentaires de formation et d’appui aux chercheurs qui se retrouveront dans les bibliothèques, au bureau de la recherche ou au bureau de la conduite responsable. » Elle prévient aussi que si les exigences des organismes subventionnaires concernant le libre accès aux données augmentent, y répondre ne se fera pas à coût nul. « C’est un gros travail de plus pour les chercheurs et il faut le financer, conclut-elle. Les chercheurs ne sont pas contre le partage des données, mais il faut les accompagner et leur fournir les ressources pour les aider à bien le faire. »



more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Survey of Confidentiality and Privacy Preserving Technologies for Blockchains #R3

Survey of Confidentiality  and Privacy Preserving Technologies for  Blockchains #R3 | Territoire 2.0 | Scoop.it
Danny Yang, Jack Gavigan, Zooko Wilcox-O'Hearn, R3 Re ports Survey of Confidentiality and Privacy Preserving Technologies for Blockchains
1. Introduction, 2 2. Comparison of Key Technologies and Implementations , 9 3. Confidentiality and Privacy of Smart Contracts , 22 4. Conclusion , 24 5. Appendix , 25 Disclaimer: These white papers are for general information and discussion only and shall not be copied or redistributed outside R3 membershi p. They are not a full analysis of the matters presented, are meant solely to provide general guidance and may not be relied upon as professional advice, and do not purport to represent the views of R3 Holdco LLC, its affiliates or any of the institutions that contributed to these white papers. The information in these white papers was posted with reasonable care and attention. However, it is possible that some information in these white papers is incomplete, incorrect, or inapplicable to particular circumstances or conditions. The contributors do not accept liability for direct or indirect losses resulting from using, relying or acting upon information in these white papers. These views are those of R3 Research and associated authors and do not necessarily reflect the views of R3 or R3’s consortium members. R3 Research aims to deliver concise reports on DLT in business language for decision-makers and DLT hobbyists alike. The reports are written by experts in the space and are rooted in practical experience with the technology. Survey of Confidentiality and Privacy Preserving Technologies for Blockchains Danny Yang, Jack Gavigan, Zooko Wilcox-O’Hearn November 14, 2016 Contents 1 Introduction 2 1.1 Confidentiality and Privacy versus Security . . . . . . . . . . . . . . . . . . . . . . 3 1.2 Underlying Technologies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.3 Confidentiality and Privacy of Bitcoin and Ethereum Transactions . . . . . . . . . 7 2 Comparison of Key Technologies and Implementations 9 2.1 Efficiency & Scalability Implications . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2.2 Restricting Read Access to the Blockchain . . . . . . . . . . . . . . . . . . . . . . . 10 2.3 Storing Sensitive Inforamtion "Off-Chain" . . . . . . . . . . . . . . . . . . . . . . . 10 2.4 One-time Use Payment Address . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.5 Stealth Addresses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.6 Mixing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.7 Sidechains & State Channels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.8 Pedersen Commitments with Range Proofs . . . . . . . . . . . . . . . . . . . . . . 15 2.9 Ring Signatures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.10 Zero-Knowledge Proofs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 3 Confidentiality and Privacy of Smart Contracts 22 3.1 Hawk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 3.2 Enigma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 4 Conclusion 24 5 Appendix 25 5.1 Quantum Computing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 5.2 Introduction to RSA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 5.3 Digital Signature Example . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 5.4 Demonstrating RSA’s Multiplicative Homomorphism . . . . . . . . . . . . . . . . . 28 1 1
 Introduction Blockchain (or distributed ledger) technology has the potential to drive innovation across a range of industries. Like any emerging technology, however, it needs to mature before its full potential can be realised. As this technology continues to develop, the concepts of confidentiality and privacy have emerged as key areas of research. In a recent survey by Greenwich Associates, 1 56% of the 134 market participants surveyed cited transaction confidentiality as a major security concern. This concern is driven by several factors. In many cases, confidentiality and privacy are enforced by legislation (e.g. EU data protection legislation), regulation (client confidentiality) or contract (commercial confidentiality). For financial use cases, it is often necessary that users keep details of their transactions private. Individual endusers typically do not want the details of their income and spending to be exposed. Similarly, small businesses do not want to reveal details of their revenues and cash flows to competitors. For R3’s user base, capital markets participants do not want their competitors to be able to see the details of their transactions. Maintaining the confidentiality of central bank money transfers and settlement activity is desirable to avoid the disclosure of information that could damage confidence, or, what the Federal Reserve refers to as “discount window stigma.” 2 In the early days of the Web, the Secure HyperText Transfer (SHTTP) and Secure Sockets Layer (SSL) protocols emerged as competing standards for adding privacy to the Web, with SSL eventually triumphing. We expect blockchain technology to follow a similar path, with multiple competing privacy standards emerging over the next few years. In his review of the Ethereum platform 3 , Vitalik Buterin provided a brief overview of some of the technologies that can be leveraged to add privacy to blockchains. In this report, we take a more detailed look at confidentiality and privacy, reviewing and examining the technologies and protocols that are currently in use or emerging as potential solutions for adding confidentiality to blockchains. We assess the advantages, disadvantages and implications in terms of adoption for financial use cases. We focus primarily on the underlying technologies, though we allude to specific implementations where appropriate. Though we often use the terms “confidentiality” and “privacy” interchangeably in our daily lives, they are distinct terms from a legal standpoint. Throughout this report, we use the term confidentiality in the context of protecting data (e.g. trans- action details, price, asset types, account and wallet balances, the business logic of smart contracts) from unauthorised third parties. We use the term privacy to refer to protection from intrusion into the identity of blockchain participants and parties to transactions. To assess different confidentiality- and privacy-enabling technologies, we consider how they impact the key features that make blockchain technology attractive for financial use cases: • Eliminates the need for a trusted third party (TTP) or central authority for record- keeping, which can reduce transaction costs • Supports the issuance and transaction of digital bearer assets, which enables “on- chain” securities trading, novation, offsetting, etc. • Creates a single shared view of the world (i.e., a single “source of truth”), which supports more efficient settlement and reconciliation by eliminating trade breaks, and makes it easier to share information with third parties such as regulators, trade reporting services, and central counterparties. This is a dynamic space and new technologies are constantly being developed, often privately within companies (e.g. R3’s 4 ). Therefore, this report represents a snapshot of the technologies that have been open sourced and made public at this point in time. In this report, we focus on the key technologies that show the most promise and that are gaining the most traction in the space. We also outline how those technologies are being implemented in practise, with reference to the foremost implementation. We refer to Bitcoin and Ethereum 1 https://www.greenwich.com/fixed-income-fx-cmds/securing-blockchain 2 O Armantier, E Ghysels, A Sarkar, J Shrader (2011). “Discount Window Stigma during the 2007-2008 Financial Crisis.” 3 https://r3cev.com/blog/2016/6/2/ethereum-platform-review 4 http://r3cev.com/s/corda-introductory-whitepaper-final.pdf 2 frequently, for ease of analogy and because much of the public experimentation, testing, and innovation being carried out in this space are based on these two cryptocurrencies, though there are many other cryptocurrencies, some of which focus on privacy (e.g. Monero, Dash, Shadowcash, Anoncoin). 1.1 Confidentiality and Privacy versus Security Information security practitioners often refer to the CIA triad: confidentiality, integrity and availability. While blockchain technology includes features that support both integrity and avail- ability, achieving a similar level of support for confidentiality has proven to be more challenging. Confidentiality & Privacy In the context of blockchain technology, confidentiality and privacy means that both the data written to the blockchain and the identities of the parties involved are protected. For our purposes, it necessitates the following: • The counterparties to a transaction cannot be identified by an unauthorised third party from the information that is written to the blockchain (including metadata), unless one of the counterparties has chosen to reveal that information • Transaction details are not visible to unauthorised third parties and the world at large unless one of the counterparties has chosen to reveal that information • Transaction details cannot be collated, analysed or matched with “off-blockchain” metadata to reveal any information about counterparties or transaction details. By this, our definition encompasses the use of graph analysis, pattern matching and machine learning to construct a profile of a counterparty based on the activities associated in the ledger Integrity Integrity in a blockchain system is about ensuring that the data that is written to the blockchain is correct and cannot be subsequently altered: • Transactions cannot be created and added to the blockchain by unauthorised parties (this ensures that transactions cannot be faked and assets cannot be stolen) • Transactions cannot be cancelled or reversed by unauthorised parties • Transactions, once committed, cannot be later denied (non-repudiation) • The record of transactions is immutable 5 • Robust consensus or resistance to manipulation by bad actors We deliberately allude to unauthorised third parties because some blockchain protocols may allow or mandate that counterparties’ identities and/or transaction details be disclosed to specific third parties. Availability Availability of blockchain systems refers to their ability to withstand outages and attacks: • Capacity to handle high loads and volumes while remaining functional and responsive • Absence of a single point of failure (this is inherent in blockchain technologies’ distributed nature) • Ability to resist denial-of-service attacks 5 By this, we mean “extraordinarily difficult to tamper with or amend.” 3 Security often requires tradeoffs. For example, requiring multiple signatures for a transaction is one way to improve security by making it harder for an unauthorised party to carry out a transaction. However, multiple signatures also necessarily involves multiple entities, resulting in a potential loss of privacy and confidentiality, and additional points of failure. There are third party services that specialize in adding security by being an extra signer to transactions, but the third party gains access to the transactions they are required to sign. Finally, enhanced privacy and confidentiality often necessitates greater difficulty and cost in terms of computational resource requirements. 1.2 Underlying Technologies When assessing the benefits and drawbacks of various confidentiality- and privacy- preserving technologies, it helps to have a basic understanding of the underlying technologies and techniques. We therefore present a high-level overview of a selection of the relevant technologies. This overview is not intended to be exhaustively accurate, but rather to provide enough context for those who do not have a background in cryptography or computer science to understand the concepts we cover later in the report. Public Key Cryptography Public key cryptography (PKC) is the foundation of blockchain technology and forms the basis of many of the privacy techniques surveyed in this report.

Public key cryptography is primarily used for two things: 1. Encryption and decryption of sensitive data 2. Digital signatures to prove a message’s authenticity Encryption and Decryption Cryptography is used to encrypt messages in order to prevent unauthorised parties from snooping on them. If Bob wants to send Alice a message, for example, he encrypts the plaintext message in plain English using a “key”. Bob can then send the ciphertext to Alice, secure in the knowledge that, even if somebody else manages to intercept the ciphertext, they won’t be able to decrypt it. When Alice receives the ciphertext from Bob, she decrypts it. Before the invention of PKC, Alice would need to use the same key to decrypt the ciphertext that Bob had used to encrypt it. In other words, Alice and Bob would need to exchange a secret key between themselves before they could exchange encrypted messages. This type of cryptography is often referred to as symmetric encryption because the key used to encrypt messages and the key used to decrypt them are identical. If someone else managed to get hold of the secret key, they would be able to decrypt and read all of Alice’s and Bob’s messages to one another. With PKC, or asymmetric encryption , there is no need to exchange a secret key. Instead, Alice generates a key pair, consisting of a public key and a private key. The public key is used to encrypt messages but it is not capable of decrypting messages; only the private key can decrypt a message encrypted with the corresponding public key. Alice sends the public key to Bob and keeps the private key secret. Meanwhile, Bob generates his own key pair, and sends his public key to Alice. To send Alice a message, Bob encrypts it using Alice’s public key, and sends her the ciphertext. Alice then uses her private key to decrypt the message. Alice can then encrypt her reply using Bob’s public key. By eliminating the need to exchange a secret key, Alice and Bob have made an attacker’s job far more difficult. To read all of Alice’s and Bob’s communication, the attacker must now steal both their private keys. RSA 4 RSA was the first public key cryptosystem invented in 1977 by Ron Rivest, Adel Shamir and Leonard Adleman. 6 RSA, as it become known, is still widely used today although it is though it is gradually being supplanted by more efficient cryptosystems. For example, both Bitcoin and Ethereum use elliptic curve cryptography. Despite its declining popularity, RSA is useful for explaining many of the concepts that underpin the privacy techniques that we survey in this report. Therefore, we present an overview of RSA for nonmathematicians in the Appendix. Digital Signatures In addition to encrypting messages, PKC can also be used to authenticate a message by creating a digital signature using the sender’s private key. The recipient of the message can then verify the digital signature using the sender’s public key. Digital signatures help protect against fake or spoofed messages, as a third party with no access to the private key cannot forge a valid digital signature. It also ensures that the sender cannot later pretend that he did not send the message, because a valid digital signature can only be generated for a given message if the signer is using the correct private key (this is generally referred to as “nonrepudiation”). See the Appendix for an example of how an RSA signature is created. Hash Functions One way of creating a small digital signature is to use a hash function, a mathematical function that maps data of any size to a piece of data of a specific length, called the hash value or simply the hash. The hash acts as the digital fingerprint of the original data. Cryptographic hash functions are one-way functions, meaning that they can’t be reversed. In other words, it’s impossible to find out what the original data is from a hash. A hash is also deterministic, which means the same input data will always produce the same hash. Blockchain technology leverages this quality to ensure the immutability of the transaction record. An example of a popular hash function is SHA-256. SHA stands for “Secure Hashing Algorithm” and “256” indicates that the hashes it produces are 256 bits long. Below are examples of input data that are almost but not quite identical and their SHA-256 hashes, represented in hexadecimal. As you can see, any change (highlighted) in the input data results in a vastly different hash. You can also see that the length of the hash remains the same, no matter how big the input data is. You can hash images, hard drives, or entire data centres and the hashes will be the same length. 6 R.L. Rivest, A. Shamir, and L. Adleman. "A Method for Obtaining Digital Signatures and Public-Key Cryp- tosystems." 5 Digital signatures by themselves are proportional to the size of the data being signed. So in practice, it is the hash of the data or message that is digitally signed, rather than the data itself. This ensures that the size of the digital signature is not dependent on the size of the data being signed. The recipient can use the same hashing function to generate the hash of the message they have received and verify that the digital signature matches the hash they have calculated. Although the limited size of the hash means that it is theoretically possible to find multiple data inputs that result in an identical hash (referred to as a collision), doing so is impractical. One would need to try many different inputs, with the chance of finding a matching hash being 1 in 2256 (or 1 in 115,792,089,237,316,195,423,570,985,008,687,907,853,269,984,665,640,564,039,457,584,007,913,129,639,936). Therefore, the message’s recipient can be confident that the hash signed by the sender was gener- ated from the original message. Homomorphic Encryption Homomorphic encryption allows arithmetic operations (e.g. addition, multiplication) to be car- ried out on encrypted values; when the result is decrypted, it yields the same result that would have been achieved had the same calculation been carried out on the unencrypted inputs. Plaintext1 encrypts to Ciphertext1 Plaintext2 encrypts to Ciphertext2 Ciphertext1 + Ciphertext2 = Ciphertext3 Ciphertext3 decrypts to Plaintext3 Plaintext1 + Plaintext2 = Plaintext3 Many cryptosystems are partially homomorphic. For example, the RSA cryptosystem is mul- tiplicatively homomorphic. If you encrypt two numbers separately, using the same secret key, multiply the ciphertexts, then decrypt the result, you get the same result that you would get if you multiplied the two original numbers (see the appendix for a worked example.) While RSA does not support arithmetic functions other than multiplication (e.g. addition), other cryptosystems do. The development of fully-homomorphic encryption is the subject of ongoing academic research. One practical application of homomorphic encryption is to allow untrusted third parties to carry out computation on encrypted data. For example, if one had two numbers and wanted somebody else to compute their product without revealing the two numbers, one could encrypt the two numbers using RSA encryption and provide the ciphertexts to the person doing the computation. She can multiply the two ciphertexts and provide us with the result, which we can then decrypt to get the product of the two original numbers. In the appendix, we present an example which demonstrates the multiplicatively homomorphic qualities of the RSA cryptosystem. Other cryptosystems are additively homomorphic, which can be used to prove that a cryptocurrency transaction’s outputs are equal to its inputs, without revealing either the inputs or the outputs (c.f. Pedersen commitments in section 2.8). Arithmetic Circuits When implemented in software, a single arithmetic operation is often referred to as an arithmetic gate. It typically takes two inputs and returns a single output. 6 Arithmetic circuits are constructed by connecting multiple arithmetic gates (each of which carries out a single arithmetic function, such as addition or multiplication) together, to carry out complex calculations. When used in conjunction with homomorphic encryption, arithmetic circuits can be used to carry out complex computations on encrypted data. 1.3 Confidentiality and Privacy of Bitcoin and Ethereum Transactions Both Bitcoin and Ethereum are public, open, transparent, pseudonymous blockchains. They are open in the sense that there are no restrictions on participation and transparent in the sense that all transaction details are visible on the blockchain. However, the counterparties are only identified by their public keys (commonly referred to as Bitcoin addresses or Ethereum accounts). There is no formal mechanism for identifying the person who controls a given public key. 7 If a public key’s owner (Alice) can be identified through information leaks, then it is trivially easy to monitor all associated transactions and all of Alice’s funds by watching the blockchain for transactions to and from the public keys associated with Alice. The entities that Alice transacts with can then be further identified based on this association with Alice. Additionally, after a public key and associated transactions are identified, there is no way to “erase” this information as this is now public knowledge. As previously noted, the privacy provided natively by Bitcoin and Ethereum is limited to pseudonymity, and transaction details are not confidential as the transaction amount and the assets being transferred, its metadata (including the time the transaction was executed), and its relationships to other transactions, are trivially available to anyone. There has been a significant amount of research into how the Bitcoin blockchain can be analysed to identify the parties to a transaction, and what other transactions involve the same parties. 7 There has been less research on deanonymizing the transactions in Ethereum, but many of the same techniques can be used which include observing transactions in the network and correlating the source of the transactions based on their propagation across the network, or identifying patterns of senders and receivers. 8 Identifying these patterns is more straightforward in Ethereum, as public keys are more likely to be reused than in Bitcoin. 9 The figure below illustrates how privacy can be added to the different aspects of a transaction in the blockchain using different techniques. 7 a. E. Androulaki, G. Karame, M. Roeschlin, T. Scherer, S. Capkun, “Evaluating User Privacy in Bitcoin,” in IACR: Cryptology ePrint Archive, 2012. b. M. Fleder, M. Kester, S. Pillai, “Bitcoin Transaction Graph Analysis,” in arXiv:1502.01657, 2015. c. S. Meiklejohn, M. Pomarole, G. Jordan, K. Levchenko, D. McCoy, G. Voelker, S. Savage, “A Fistful of Bitcoins: Characterizing Payments Among Men with No Names,” In IMC ’13: Proceedings of the 13th ACM SIGCOMM Conference on Internet Measurement, 2013. d. M. Ober, S. Katzenbeisser, K. Hamacher, “Structure and Anonymity of the Bitcoin Transaction Graph,” in Future Internet 5, 2013. e. M. Ortega, “The Bitcoin Transaction Graph,” Master’s Thesis, Universitat Autonoma de Barcelona, 2013. f. F. Reid, M. Harrigan, “An Analysis of Anonymity in the Bitcoin System,” in IEEE International Conference on Privacy, Security, Risk, and Trust, 2011. g. D. Ron, A. Shamir, “Quantitative Analysis of the Full Bitcoin Transaction Graph,” in Proceedings of the 17th International Conference on Financial Cryptography and Data Security, 2013. h. M. Spagnuolo, F. Maggi, S. Zanero, “BitIodine: Extracting Intelligence from the Bitcoin Network,” in FC ’14: Proceedings of the 18th International Conference on Financial Cryptography and Data Security, 2014. 8 One early example of trying to identify users on the Ethereum blockchain is data analysis of The DAO hacker from Bok Consulting: https://www.bokconsulting.com.au/blog/the-dao-hackers-booty-is-on-the-move/ 9 There are open tools which can track and visualize Bitcoin address reuse: http://www.kristovatlas.com/rfc- tool-for-trackingand- visualizing-bitcoin-address-reuse/ 8
(...)
more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

L'INRS lance un appel de candidatures pour deux nouvelles chaires de recherche #NonCanadiens #Expat

L'INRS lance un appel de candidatures pour deux nouvelles chaires de recherche #NonCanadiens #Expat | Territoire 2.0 | Scoop.it
Programme des chaires de recherche du Canada 150 L'INRS lance un appel de candidatures pour deux nouvelles chaires de recherche Version imprimable 14 juillet 2017 // par Vice-rectorat à la recherche et aux affaires académiques rss Partager Dans son budget 2017 et pour souligner le 150e anniversaire du Canada, le gouvernement fédéral met à la disposition des établissements universitaires admissibles des chaires de recherche de haut niveau pour rehausser la réputation du Canada en tant que centre mondial d'excellence en sciences, en recherche et en innovation. Le Programme des chaires de recherche du Canada 150 prévoit un investissement ponctuel qui permettra aux établissements d'enseignement canadiens, dans le cadre d'un concours ouvert, d'attirer au Canada des universitaires et des chercheurs de premier plan qui sont en poste à l'étranger (y compris des Canadiens expatriés). Dans ce contexte, l’INRS, qui désire accroître sa capacité de recherche, acceptera des candidatures d’excellence, et ce, dans une des disciplines de recherche de ses quatre centres, dans le but de présenter deux candidates ou candidats au concours du Programme des Chaires de recherche du Canada 150. Ainsi, l’INRS proposera la création de deux chaires d’une valeur de 7 M$ chacune sur 7 ans. Pour plus de renseignements, consultez le Programme des chaires de recherche du Canada 150 (http://www.canada150.chairs-chaires.gc.ca/program-programme/cpan-pccs-fra.aspx).
Appel de candidatures (AP 17-03)
 Exigences et habiletés particulières
 • Présenter un bilan exceptionnel de réalisations en recherche; • Avoir un leadership reconnu à l’international dans son domaine d’expertise; • Être capable de travailler en équipe et en réseau dans une perspective multidisciplinaire, tout en collaborant avec des représentants de divers organismes; • Posséder des aptitudes pour l’enseignement et l’encadrement d’étudiants aux cycles supérieurs et de chercheurs postdoctoraux, et la direction de personnel de recherche.
Admissibilité des candidats
Seuls les candidats en poste à l’étranger, y compris les Canadiens expatriés, sont admissibles à ce concours et peuvent poser leur candidature. Énoncé en matière d’équité, de diversité et d’inclusion L’INRS souscrit à un programme d’accès à l’égalité en emploi et à un programme d’équité en emploi. Il invite les femmes, les minorités visibles, les minorités ethniques, les autochtones et les personnes handicapées à soumettre leur candidature. L’INRS reconnaît que les interruptions de carrière peuvent avoir des répercussions sur le dossier des réalisations d’un candidat. Le cas échéant, les candidats sont invités à faire part des circonstances de toute interruption et à expliquer son incidence sur l’évolution de leur dossier.
Comment postuler?
Les personnes intéressées sont priées de faire parvenir par courriel au plus tard le 10 août 2017, 17 h : • leur curriculum vitæ complet; • le formulaire dûment complété (fichier Word).
Veuillez transmettre le tout à l’attention de
 : Monsieur Yves Bégin Vice-recteur à la recherche et aux affaires académiques Institut national de la recherche scientifique 490, rue de la Couronne Québec (Québec) G1K 9A9 yves.begin@inrs.ca À propos de l'INRS L’INRS est une université de recherche et de formation aux 2e et 3e cycles. Première au Canada pour son intensité en recherche (subventions par professeur), l’INRS rassemble 150 professeurs et près de 800 étudiants et stagiaires postdoctoraux répartis dans quatre centres situés à Québec, à Montréal, à Varennes et à Laval. Actives en recherche fondamentale, essentielle à l’avancement de la science au Québec et sur l’échiquier international, les équipes de recherche de l’INRS jouent un rôle clé dans le développement de solutions concrètes aux préoccupations de notre société.  
more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Andreas M. Antonopoulos, Mastering Bitcoin: Programming the Open Blockchain, DRM-free EPUB; 2017.

Andreas M. Antonopoulos, Mastering Bitcoin: Programming the Open Blockchain, DRM-free EPUB; 2017. | Territoire 2.0 | Scoop.it
Join the technological revolution that’s taking the financial world by storm. Mastering Bitcoin is your guide through the seemingly complex world of bitcoin, providing the knowledge you need to participate in the internet of money. Whether you’re building the next killer app, investing in a startup, or simply curious about the technology, this revised and expanded second edition provides essential detail to get you started. Bitcoin, the first successful decentralized digital currency, is still in its early stages and yet it’s already spawned a multi-billion-dollar global economy open to anyone with the knowledge and passion to participate. Mastering Bitcoin provides the knowledge. You simply supply the passion. The second edition includes: A broad introduction of bitcoin and its underlying blockchain—ideal for non-technical users, investors, and business executives An explanation of the technical foundations of bitcoin and cryptographic currencies for developers, engineers, and software and systems architects Details of the bitcoin decentralized network, peer-to-peer architecture, transaction lifecycle, and security principles New developments such as Segregated Witness, Payment Channels, and Lightning Network A deep dive into blockchain applications, including how to combine the building blocks offered by this platform into higher-level applications User stories, analogies, examples, and code snippets illustrating key technical concepts
https://github.com/bitcoinbook/bitcoinbook/blob/develop/appdx-scriptops.asciidoc
https://bitcoin.org/en/developer-documentation
https://github.com/bitcoinbook/bitcoinbook
more...
No comment yet.
Scooped by Schallum Pierre
Scoop.it!

Les robots sexuels posent (déjà) de nombreux problèmes éthiques par Annabelle Laurent 

Les robots sexuels posent (déjà) de nombreux problèmes éthiques par Annabelle Laurent  | Territoire 2.0 | Scoop.it

« Notre inquiétude, c’est que personne n’en parle » : la Foundation for Responsible Robotics (http://responsiblerobotics.org/) a présenté mercredi 5 juillet à Londres les résultats d’une étude consacrée au « futur de notre vie sexuelle avec les robots ». Les experts espèrent éveiller l’intérêt des décideurs, des chercheurs et du grand public, alors que les premiers robots sexuels dotés d'intelligence artificielle sont en passe de ringardiser les poupées en silicone déjà vendues depuis plusieurs années. D’ici la fin de l’année, Abyss Creations, une entreprise américaine qui fabrique des sex dolls depuis 1996, commercialisera Harmony. Un robot qui « sourit, cligne des yeux et fronce les sourcils, peut tenir une conversation, raconter des blagues, citer Shakespeare, se souvenir de votre anniversaire (...) et bien sûr avoir une relation sexuelle avec vous dès que vous le souhaitez », comme le détaillait fin avril une enquête du Guardian. Harmony - dont le créateur Matt McMullen est interviewé ci-dessous par le New York Times - est dotée de mouvements « naturels », et l'utilisateur peut choisir parmi plusieurs personnalités : « intellectuelle » ? « Soumise » ? « Dominatrice » ? 


Abyss Creations n’est pas la seule entreprise en lice. Trois autres fabricants, Android Love Doll, True Companion, et Sex Bot Company, ont investi le créneau des robots sexuels, et les proposent à des prix allant de 5 000 à 15 000 dollars (pour Harmony). 

« Pour l’instant, cela fait ricaner les gens. Mais ces entreprises en vendent déjà beaucoup, et nous allons en voir de plus en plus, a alerté ce 5 juillet à Londres Noel Sharkey, professeur en intelligence artificielle et co-fondateur de la Foundation for Responsible Robotics. Les robots sont déjà proposés pour des personnes âgées dans des maisons de retraite, ce qui est à mon sens problématique. Si vous êtes atteint de la maladie d’Alzheimer, vous ne pouvez pas vraiment faire la différence. Nous devons réfléchir à la façon dont nos sociétés veulent réagir à l’arrivée de ces robots.» 

L’étude passe en revue sept questions autour des robots sexuels, la première étant : y a-t-il réellement un marché ? Plusieurs sondages, réalisés aux Etats-Unis, en Grande-Bretagne, en Allemagne et aux Pays-Bas sont cités : en moyenne, environ deux tiers des hommes sont en faveur d’une utilisation des robots sexuels, contre 30 % des femmes. Une autre question accompagne le déploiement de ces robots : changeront-ils les perceptions des genres ? « Il est absolument évident que créer une représentation pornographique du corps de la femme, et en faire une machine sexuelle capable de se mouvoir, objective et transforme en produit le corps des femmes. Mais la grande question est : quel en sera réellement l’impact dans une industrie déjà tournée vers cette objectivation ? Nous n'en savons rien », écrivent ainsi les experts de la fondation. 

Des robots sexuels programmés pour être réticents

Le rapport souligne également une face plus sombre de l’industrie dans laquelle des entreprises programment des personnalités « réticentes » aux sex dolls pour que les utilisateurs puissent sentir qu’ils forcent les robots à avoir une relation sexuelle. Roxxxy Gold, un robot conçu par True Companion, peut ainsi être programmé pour être « Frigid Farrah », auquel cas l'utilisateur est prévenu : « Si vous la touchez dans un endroit intime, il y a de fortes chances qu'elle n'apprécie pas vos avances ».

Le rapport mentionne aussi le fabricant japonais de sex dolls Trottla, qui a commencé la commercialisation de poupées infantiles... à destination des pédophiles. Shin Takagi, le créateur de l'entreprise, se présente comme un pédophile « n’ayant jamais fait de mal à un enfant parce qu’il utilise lui-même la poupée »…

Pour le professeur de philosophie et d’éthique robotique Patrick Lin, « traiter les pédophiles avec des robots sexuels infantiles est une idée aussi douteuse que répugnante ». Les auteurs du rapport réclament l’interdiction totale de sex dolls infantiles. Conséquences de l'arrivée des robots auprès des personnes âgées ou des personnes isolées, impact sur la déliquance sexuelle... L'éventail de questions est large et bien trop sous-estimé par les chercheurs, insiste la fondation. La machine est lancée et le déploiement ne va faire que s'accélérer. Tandis qu'en parallèle se multiplieront les mariages avec les robots... En décembre dernier, David Lévy, spécialiste de l'IA, annonçait qu'en 2050, pour « les millions de personnes qui pour diverses raisons n'ont personne à aimer ou personne pour les aimer, les robots seront la bonne réponse ».

more...
No comment yet.