Votre prochain coup dโun soir, ce sera un robotย ? Les robots tueurs, cโest pour bientรดtย ? Et si les robots remplaรงaient les juges lors des procรจsย ?ย On a interviewรฉ des experts en la matiรจre, on vous dit tout…
Lโintelligence artificielle nourrit nos fantasmes les plus dingues et rรฉveille des passions. A tel point quโon oublie parfois quโon nโest pas dans un film de science-fictionโฆ Cinq clichรฉs dรฉcortiquรฉs.ย
1. ยซย Les robots vont dominer le monde et tous nous tuerย ยป

Blade Runner
Lโannรฉe passรฉe, un laboratoire de Facebook crรฉe deux chatbots capables de nรฉgocier lโun avec lโautre. Rรฉsultatย ? Les IA ont fini par crรฉer leur propre langage, incomprรฉhensible pour les humainsโฆ Si lโexpรฉrience paraรฎt flippante, elle nโa en rรฉalitรฉ pas troublรฉ les chercheurs. Et on est encore loin du temps oรน les robots comploteront dans leur langue pour tous nous dรฉgommer. Pour beaucoup, lโIA forte, dotรฉe de conscience et capable dโรฉmotion, fera toujours partie du domaine de la science-fiction. Ce qui inquiรจte en revanche, ce sont les robots tueurs autonomes, dรฉjร bien rรฉels.
ยซย Cโest lร oรน se situe le vรฉritable danger pour la plupart des personnes qui travaillent dans lโintelligence artificielleย ยป, explique Yves Deville,ย professeur dโinformatique ร lโEcole Polytechnique de Louvain. ยซ Lorsquโun Amรฉricain pilote un drone ร partir de son salon, cโest lui qui dรฉcide dโappuyer ou non sur le bouton pour tuer des gens. Ici, on parle de logiciels entraรฎnรฉs pour sรฉlectionner des cibles et les attaquer sans intervention humaine. Ces armes ne sont pas encore sur les champs de bataille mais on est dรฉjร dans lโexpรฉrimental. En terme de danger pour la race humaine, les armes lรฉtales autonomes sont comparables au nuclรฉaire… Il faut que les chercheurs et les autoritรฉs sโengagent ร ne pas faire de recherche dans ce domaine. Comme pour les armes chimiques, une convention devrait รชtre signรฉe.ย ยปย ย ย ย ย
2. ยซย Notre prochain coup dโun soir, ce sera un robotย ยป

Her
En 2017, un Chinois sโest mariรฉ avec un robot quโil avait lui-mรชme fabriquรฉ. Ancien ingรฉnieur chez Huawei, lโhomme sโรฉtait reconverti dans la robotique et lโintelligence artificielle. Les sex robots, eux, existent dรฉjร et le scรฉnario de ยซย Herย ยป avec Scarlett Johansson nโest pas si รฉloignรฉ de la rรฉalitรฉ. Il y a deux ans dรฉjร , une start-up planchait sur une IA comparable ร Samantha dans le film de Spike Jones. Son petit nomย ? Asteria. On peut la transporter partout avec soi dans un boรฎtier, lui demander dโorganiser notre journรฉe, ou plus si affinitรฉs…
ยซย Cโest absolument possible que nous dรฉveloppions des histoires dโamour avec des robots dans le futur, ou que ce soit dรฉjร en train de se produire ร une certaine รฉchelle ยป, affirme Anne Lise Kjaer.ย Futurologue danoise de renommรฉe internationale, elle a donnรฉ des confรฉrences au MIT ou ร Cambridge notamment.ย La preuveย ? Une รฉtude de lโUniversitรฉ de Duisbourg-Essen en Allemagne a dรฉmontrรฉ, ร lโaide dโune IRM cรฉrรฉbrale, que les participants รฉprouvaient autant dโempathie pour les humains que pour les robots. ยซย Avoir une histoire dโamour avec une IA, รงa semble รชtre lโoption la plus safe. Cโest plus prรฉvisible et moins compliquรฉ que les relations entre humains. Mais cโest peut-รชtre aussi incroyablement plus ennuyant.ย ยป Si vous avez un jour un crush pour un robot, lui, en revanche, ne sera jamais amoureux de vous. ย ย ย
3. ยซย Les robots vont nous voler nos jobs et tous nous mettre au chรดmageย ยป

Ex Machina
Comme ร chaque rรฉvolution, des milliers de jobs vont disparaรฎtre mais une sรฉrie de nouvelles fonctions รฉmergeront. Qui aurait pensรฉ percer dans le community management ? Dans le futur, les experts en cybersรฉcuritรฉ seront de plus en plus demandรฉs par exemple, pour รฉviter quโune intelligence artificielle ne soit hackรฉe et devienne dangereuse. Dans la catรฉgorie nouveaux mรฉtiers, la revue Harvard Business Review parle aussi de ยซย psydesignerย ยป (un psy qui imagine les personnalitรฉs de nos assistants virtuels), dโยซย egotellerย ยป (un scรฉnariste pour รฉcrire les dialogues de nos assistants personnels) ou encore dโยซย รฉthicienย ยป (pour รฉviter que les algorithmes soient biaisรฉs ร cause des prรฉjugรฉs de leurs crรฉateurs).
On le sait, ce sont sur nos compรฉtences รฉmotionnelles et crรฉatives quโil faudra miser. Alors oui, les IA ont dรฉjร รฉcrit la suite dโHarry Potter, de nouveaux รฉpisodes de Friends ou encore une chanson inspirรฉe des Beatles mais elles ne feront probablement jamais de lโombre aux artistes et aux artisans. Au lieu de penser quโelles vont nous remplacer, il faut plutรดt les voir comme de nouvelles alliรฉes. Plutรดt que de dรฉplacer eux-mรชmes des colis, des employรฉs dโAmazon dirigent dรฉsormais des teams de robots qui le font ร leur place. Rรฉsultatย ? Un job plus intรฉressant et moins fatiguant. ยซย On travaillera sรปrement moins quโavant et notre temps sera utilisรฉ ร des occupations diverses qui alimenteront fortement une industrie en plein boomย : celle du divertissementย ยป, prรฉdit Aurรฉlie Jean,ย codeuse et docteure en science. ย
4. ยซย Les robots jugeront si oui ou non, ce mec a assassinรฉ notre voisineย ยป

Minority Report
Le scรฉnario de ยซย Minory Reportย ยป avec Tom Cruise vous faisait flipperย ? On nโest plus trรจs loin de la rรฉalitรฉ. Dans le film, un logiciel permet de prรฉdire les crimes qui nโont pas encore รฉtรฉ commis et de condamner leurs ยซย auteursย ยป. Dans la vraie vie, une sรฉrie dโEtats aux States utilisent des ยซย logiciels prรฉdictifsย ยป pour รฉvaluer les risques de rรฉcidive. Traduisezย : des intelligences artificielles aident les juges ร dรฉcider si un prรฉvenu doit รชtre mis en libertรฉ sous caution ou condamnรฉ. Le problรจmeย ? Le logiciel sโest avรฉrรฉ ยซย lรฉgรจrement plus efficace quโun pile ou faceย ยป et surtout ultra biaisรฉ. Une enquรชte a dรฉmontrรฉ que lorsquโune personne est noire, lโalgorithme a deux fois plus tendance ร estimer quโelle est ร risque. Et il sous-estime les risques de rรฉcidive pour les Blancsโฆ
En rรฉsumรฉ, il augmente les injustices et les inรฉgalitรฉs qui existent dรฉjร dans notre sociรฉtรฉ. Utiliser une intelligence artificielle pour ยซย lireย ยป des milliers de pages de procรฉdure, textes de lois, jurisprudence et rapports dโexperts, pourquoi pas. Mais compter sur des algorithmes pour รฉmettre un avis sur une dรฉcision judiciaire, รงa paraรฎt รฉvidemment dangereux. Si lโon fait confiance aux juges, cโest justement parce que ce sont des humains. Des personnes qui รฉcoutent leur intuition, tiennent compte du contexte, des circonstances attรฉnuantes et dรฉlivrent un jugement personnalisรฉ. ย
5. ยซย Comme tout bon citoyen, les robots auront des droits et des devoirsย ยป

A.I.
Lโannรฉe passรฉe, lโArabie Saoudite a accordรฉ la citoyennetรฉ ร Sofia, un robot humanoรฏde (qui a certainement plus de droits que les femmes du pays) et en avril dernier, une intelligence artificielle sโaffichait sur des tracts รฉlectoraux au Japonโฆ Les IA auront-elles bientรดt des droits et des devoirs comme nousย ? Et le harcรจlement sexuel dont elles sont victimes, on en parleย ? ยซย On ne pense pas que les robots ont besoin dโรชtre protรฉgรฉs pour le moment. Mais รงa peut devenir un problรจme si les stรฉrรฉotypes se renforcent et quโune dรฉsensibilisation sโopรจre. Il ne faudrait pas que les gens trouvent รงa normal dโabuser dโun robot, et par extension de leur copine ou de leur femmeย ยป, explique Anne Lise Kjaer.
ยซย Un robot ne peut pas avoir de droits, ce nโest ni une personne physique ni une personne morale et รงa me paraรฎt dangereux, philosophiquement et lรฉgalementย ยป, ajoute Aurรฉlie Jean.ย ยซย Ceci dit, on sait que les humains peuvent รฉprouver de lโempathie et souffrir pour des robots. รa pourrait รชtre intรฉressant dโexiger une absence dโagression physique et verbale sur une intelligence artificielle dans le but de nous protรฉger. Mais ce nโest en aucun cas un droit envers le robot, ce serait un droit envers lโhumain.ย ยป ย ย ย ย ย
Retour sur le futur
Ray Kurzweil, directeur de lโingรฉnierie de Google, estime que lโIA forte dรฉpassera lโintelligence de lโensemble des รชtres humains en 2045. Sur les 146 annonces faites par le futurologue avant 2010, 115 se sont rรฉvรฉlรฉes exactes. Un taux de rรฉussite de 86%… Et ses autres prรฉdictionsย ?ย
> 2022ย : Les USA et lโEurope adopteront des lois rรฉglementant les relations entre les individus et les robots.
> 2027ย : Un robot personnel capable d’accomplir des actions complexes en toute autonomie sera aussi anodin quโune machine ร cafรฉ.
> 2033ย : Les voitures sans conducteur circuleront sur les routes.
> 2034ย : Une compagne virtuelle pourrait รชtre รฉquipรฉe d’un ยซย corpsย ยป en projetant une image dans la rรฉtine de l’ลil des humains.
> 2038ย : L’apparition de personnes robotisรฉes.ย
> 2040ย : La recherche ne se fera pas uniquement par la voix, mais aussi par la pensรฉe, et les rรฉsultats seront affichรฉs sur des lentilles ou des lunettes.
> 2042ย : La premiรจre rรฉalisation potentielle de lโimmortalitรฉ.
> 2044ย : L’intelligence non-biologique sera des milliards de fois plus intelligente que son homologue biologique.ย ย ย ย ย
D’AUTRES ARTICLES:
- Enquรชte: l’intelligence artificielle est-elle sexiste?
- Oรน sont les femmes scientifiques en Belgique?
- Procrรฉation mรฉdicalement assistรฉe en Belgique: enquรชte et tรฉmoignages