e-Xploration
Follow
Find tag "algorithm"
23.5K views | +4 today
e-Xploration
antropologo.net, dataviz, collective intelligence, algorithms, social learning, social change, digital humanities
Curated by luiy
Your new post is loading...
Your new post is loading...
Rescooped by luiy from Humanities and their Algorithmic Revolution
Scoop.it!

L'irrésistible montée de l'algorithmique : méthodes et concepts en #SHS I#Algorithm


Via Pierre Levy
luiy's insight:

Cet article pose des élements de réflexion sur les effets de la production croissante et rapide de corpus de traces, d'empiries numériques dans les SHS, en se situant dans le cadre plus général de la montée de l'algorithmique et du Data Mining au sein des sociétés dites "performatives", au sens de François Laruelle. En prenant appui sur le débat épistémologique et politique provoqué par Chris Anderson, on s'attache à mettre en perspective certaines transformations au coeur des pratiques théoriques, et dans le domaine des SHS , on met en évidence, à travers les concepts d'Agencement (Deleuze -Guattari) et d' ANT (Actor Network Theory), le travail complexe de la pensée confrontée à la fabrication de ce que Bruno Latour propose d'appeller "les obtenues" en lieu et place des "données".

more...
No comment yet.
Rescooped by luiy from The Semantic Sphere
Scoop.it!

Mon manifeste du médium algorithmique. By Pierre Levy

This WordPress.com site is the bee's knees

Via Pierre Levy
luiy's insight:

Dans les sciences, l’économie ou la politique, les activités humaines sont de plus en plus fondées sur la gestion et l’analyse d’énormes masses de données numériques (Je traduis par « masses de données » ou « données massives » l’anglais « big data »). Même si nous n’en n’avons pas clairement conscience, notre société devient progressivement datacentrique. Parallèlement à cette évolution, nos communications – émettrices et réceptrices de données – reposent sur une infrastructure de plus en plus complexe de manipulation automatique de symboles que j’appelle le médium algorithmique. Mais aussi bien la société datacentrique que le médium algorithmique sur lequel elle repose n’en sont encore qu’à leurs timides commencements. L’essentiel de leur croissance et de leur développement reste encore à venir. De plus, les esprits restent fascinés par la puissance de diffusion de messages offerte par l’Internet, une puissance qui n’est pas loin d’avoir atteint son terme, alors qu’un immense espace – encore inexploré – s’ouvre à la transformation et à l’analyse du déluge de données que nous produisons quotidiennement. A l’avant-garde de la révolution algorithmique, IEML (ou tout autre système ayant les mêmes propriétés) va démocratiser la catégorisation et l’analyse automatique de l’océan de données. Son utilisation dans les médias sociaux va créer un environnement encore plus propice qu’aujourd’hui à l’apprentissage collaboratif et à la production de connaissances massivement distribuée. Ce faisant, IEML (ou quelqu’autre code sémantique universel) va contribuer à faire émerger le médium algorithmique du futur et permettre une réflexion de l’intelligence collective sur l’édification de la société datacentrique à venir.

more...
Pierre Levy's curator insight, February 17, 2013 6:13 PM

Une seconde version bien meilleure que la première!

Pierre Levy's curator insight, February 22, 2013 1:28 PM

Un extrait du Tome 2

Scooped by luiy
Scoop.it!

New #Algorithm Assesses the Quality of Wikipedia Articles I #datascience

New #Algorithm Assesses the Quality of Wikipedia Articles I #datascience | e-Xploration | Scoop.it
An algorithm that assesses the quality of Wikipedia articles could reassure visitors and help focus editors on entries that need improving.
luiy's insight:

Today, we get an answer thanks to the work of Xiangju Qin and Pádraig Cunningham at University College Dublin in Ireland. These guys have developed an algorithm that assesses the quality of Wikipedia pages based on the authoritativeness of the editors involved and the longevity of the edits they have made.

 

“The hypothesis is that pages with significant contributions from authoritative contributors are likely to be high-quality pages,” they say. Given this information, visitors to Wikipedia should be able to judge the quality of any article much more accurately.

 

Various groups have studied the quality of Wikipedia articles and how to measure this in the past. The novelty of this work is in combining existing measures in a new way.

 

Qin and Cunningham begin with a standard way of measuring the longevity of an edit. The idea here is that a high-quality edit is more likely to survive future revision. They computed this by combining the size of an edit performed by a given author and how long this edit lasts after other revisions.

more...
No comment yet.