J'aimerais vous poser une autre question.
Je suis sûr que vous connaissez tous le terme « singularité ». On peut voir la singularité comme un simple terme relevant de la science-fiction dans les cas où des machines finissent par devenir les maîtres d'êtres humains, qu'elles dominent. Toutefois, prenons un peu de recul par rapport à ceci.
À la base, l'intelligence artificielle et l'apprentissage automatique ont pour but de surpasser l'intelligence et l'efficacité humaines. Au bout du compte, cependant, la composante humaine est encore nécessaire. Si nous prenons la technologie telle qu'elle est et que nous programmons les appareils selon certains paramètres, il y aura toujours un humain qui fera des calculs au besoin, au fur et à mesure. J'ai lu que l'on programmait les voitures autonomes pour qu'elles roulent à la vitesse permise, mais les humains, eux, ne respectent pas toujours la limite de vitesse. Comment pallier cela?
Si nous considérons la singularité comme le but ultime, comment nous assurer que la dimension humaine demeurera présente? Nous voulons les avantages. Nous voulons les ressources que l'intelligence artificielle et l'apprentissage automatique peuvent offrir, mais comment nous assurer que l'apport humain demeure et que les décisions soient prises dans l'intérêt humain?
C'est une question facile. Prenez 20 secondes.
Des voix: Oh, oh!