Deep learning : les
algorithmes apprennent désormais tout un ensemble de choses. À la
différence de leurs prédécesseurs – qui se limitaient à obtenir un
résultat, par exemple trouver une adresse pour un GPS, ou une citation
de Lacan dans un séminaire sur Google – les algorithmes de la quatrième
génération peuvent incorporer des données et s’en servir pour anticiper
vos choix de livres sur Amazon ou de séries sur Netflix. Ce sont les
algorithmes prédictifs qui semblent associer librement… Pardon !
Pas librement, justement, mais de manière très déterminée par vos
comportements numériques précédents enregistrés dans vos recherches, ou
dans les recherches d’autre internautes pour vous proposer des
signifiants associés à ceux que vous entrez dans le moteur de recherche.
Avec le deep-learning les
chercheurs développent depuis quelques années des algorithmes qui
jouissent d’une autonomie plus ou moins totale : sans être programmés à
l’avance comme les algorithmes précédents, ils peuvent ainsi déterminer
eux-mêmes des combinatoires possibles entre les données auxquelles ils
ont accès. C’est cela qui permettra à une machine ou à des robots de se
doter de ce qu’on appelle « l’intelligence artificielle », c’est à dire
un mode de captation de la réalité propre au système. Google développe
déjà des algorithmes qui peuvent recréer des images qui sont présentées à
un viseur de manière « artistique », modéliser la physiologie et la
simulation informatique des organes en bio-informatique, reconnaître
automatiquement la parole et proposer des solutions à des problèmes. À
l’horizon, des voitures et des villes connectées qui sauront prendre des
décisions à la place des êtres parlants…
Il y a beaucoup de choses à dire sur
l’apprentissage des algorithmes, développé essentiellement à partir des
recherches des neurosciences : du fonctionnement des réseaux neuronaux
et des connexion synaptiques qui ont inspirés la connectivité
algorithmique. Il s’agit d’une expérience de chiffrage qu’il faut
différencier du chiffrage du signifiant, où l’effet d’après-coup et la
répétition jouent aussi un rôle. Ce qui s’impose d’emblée comme
évidence, c’est qu’ils ne savent pas ce qu’ils apprennent, comme nos
amis les animaux. Cela permet d’interroger la deepness, la
profondeur de cet apprentissage. Mais aussi d’interroger les limites de
ce qui apparaît déjà comme une menace pour les spécialistes, en
caressant les fantasmes plus classiques de la science-fiction : la
possibilité que les algorithmes qui alimenteront les machines à venir,
prennent trop d’autonomie et échappent à l’homme, en devenant une figure
de l’Autre menaçante, un Golem numérique qui pourrait se retourner contre son créateur.
Fantasme ou réalité – pas virtuelle… ? Nous en discuterons aux 47e Journées !
Nenhum comentário:
Postar um comentário