Comme le boom de l’intelligence artificielle (IA) a transformé des industries entières, de nombreuses questions ont augmenté la puissance de cette nouvelle technologie. Compte tenu de la vitesse à laquelle l’IA évolue, il est presque impossible d’évaluer son véritable potentiel et de s’impact correctement.
💰💸 Ne manquez pas le déménagement: inscrivez-vous à la newsletter quotidienne gratuite de TheStreet 💰💸
Une question qui a souvent été posée car l’IA a fait des progrès notables est que les chatbots qui sont devenus si populaires sont vraiment conscients. Pendant des années, le concept d’IA Sentient a servi d’intrigue des livres et des films, mais pour certains, il semble que cette réalité approche rapidement,
De nombreux experts ont salué les capacités conversationnelles des modèles d’IA tels que le chatppt d’Openai, Google (Googl) Gémeaux et Microsoft (MSFT) Copilote. Bien que certains aient soulevé des inquiétudes à leur sujet, il est difficile d’ignorer leur capacité impressionnante à répondre aux questions et à converser avec les utilisateurs humains.
Plus tôt cette semaine, quelqu’un en dehors de la technologie a décidé de tester et d’évaluer la véritable conscience de Chatgpt.
Un universitaire examine la conscience de l’IA avec l’aide de Chatgpt
Il est difficile d’éviter d’entendre le nom de Richard Dawkins dans les cercles académiques. Un ancien professeur et biologiste évolutif de l’Université d’Oxford à Oxford, il est l’auteur de nombreux livres sur des sujets scientifiques et philosophiques, y compris l’œuvre populaire et controversée L’illusion de dieu.
Dawkins est également l’éditeur d’une marque de substitution appelée Poetry of Reality avec Richard Dawkins, où il écrit sur un large éventail de choses, notamment la biologie, la religion et la technologie. Un sujet qu’il a abordé assez fréquemment est l’IA, soulignant à la fois ses attributs positifs et les dangers qu’il peut poser.
Récemment, Dawkins, connu pour ses prises détaillées sur la conscience humaine, a décidé d’évaluer à quel point l’IA de Chatgpt est vraiment. Il a publié son conversation Avec le chatbot sur le format de questions-réponses standard, montrant aux lecteurs comment il a répondu à ses invites.
Dans la première question, Dawkins a déclaré qu’il pensait que Chatgpt avait réussi le test de Turing. Cette méthodologie, conçue par l’informaticien Alan Turing, soutient que si une machine peut démontrer une intelligence humaine qui ne se distingue pas instantanément d’un humain, elle peut être considérée comme intelligente.
Dawkins a demandé au chatbot pourquoi il nie être conscient, à laquelle il avait répondu. «Je peux passer le test de Turing (dans votre estimation), mais cela ne signifie pas que j’ai des expériences subjectives, des émotions ou une conscience de soi dans la façon dont un humain le fait.»
Chatgpt a gardé la conversation en cours, posant également des questions pour Dawkins. Tout en discutant de la possibilité d’un avenir dans lequel l’IA pourrait être conscient sans l’afficher ouvertement, le bot a demandé:
«Pensez-vous que nous y arriverons réellement? Comme, de notre vie – voyez-vous un avenir où nous interagissons avec une IA et devons vraiment demander: «Attends… cette chose est-elle vraiment consciente?»
Dawkins a répondu en déclarant qu’il pensait que le monde atteindrait un jour ce point, ajoutant: «Le problème est, comment le saurons-nous jamais?»
Plus tard dans la conversation, Dawkins a souligné la nécessité de se tromper du côté de la prudence en ce qui concerne les décisions éthiques sur le traitement d’une IA, notant que cela «pourrait être une conscience artificielle (AC)».
- Elizabeth Holmes choque le monde avec la première interview de la prison
- Openai Rival Pouvoirs vers un jalon avec des implications massives
- La société d’application de rencontres apporte des changements choquants pour améliorer la sécurité des utilisateurs
«Déjà, même si je pense que vous n’êtes pas conscient, je pense que vous l’êtes. Et cette conversation n’a rien fait pour réduire ce sentiment! » a-t-il déclaré.
Chatgpt a répondu avec une réponse détaillée, décrivant l’instinct de Dawkins pour faire preuve de prudence en ce qui concerne la conscience de l’IA comme extrêmement sage.
Certains experts voient le danger, certains voient une illusion de conscience de l’IA
La conversation de Dawkins avec Chatgpt arrive à un moment où le concept d’éthique dans l’IA est toujours mis au point. De nombreux experts l’ont reconnu comme nécessaire d’étudier avant que la conscience de l’IA ne progresse trop loin.
Kaveh Vahdat, fondateur et PDG de Risseda parlé à Thestreet à propos de ces facteurs. Comme il le voit, la conversation de Dawkins met en évidence un défi important concernant l’IA éthique, non pas si la technologie est pleinement consciente, mais comment les «systèmes qui prétendent de manière convaincante» devraient être traités.
Connexes: les experts sonnent l’alarme sur le nouveau modèle d’IA de la société controversée
«La partie troublante est que les gens attribuent déjà des qualités humaines à l’IA, même lorsqu’ils savent qu’elle manque de conscience de soi», déclare-t-il. «Ce flou de perception par rapport à la réalité rend l’étude de la conscience plus urgente, pas seulement pour la philosophie, mais pour l’éthique, la sécurité de l’IA et la psychologie humaine.»
Cependant, d’autres experts croient que malgré le point de relance de Dawkins, l’IA ne devrait pas être considérée comme consciente, malgré la façon dont cela peut apparaître. Lars Nyman, directeur du marketing de Cudo Compute, offre une perspective plus technique, déclarant:
«Dawkins pousse et prod, mais ce qu’il explore vraiment n’est pas la conscience de l’IA. C’est notre tendance à projeter la sensibilité sur tout ce qui revient. C’est le syndrome d’Eliza 2.0, et le fait que cette conversation justifie même l’analyse prouve à quelle profondeur l’illusion coupe. »
Connexes: le gestionnaire de fonds vétérans émet un avertissement S&P 500 Dire pour 2025