L'insouciance de l'IA

Partages
1

L'intelligence artificielle semble vouée à changer le monde. Mais jusqu'à présent, ses erreurs ont permis de tuer des innocents, écrit l'un des deux Joe Laurias.

Joe Lauria, présentateur météo de la télévision. (Fox 4 News Kansas City/YouTube)

By Joe Laurie (Pas le météorologue)
Spécial pour Consortium News

TIl n'existe aucun moyen d'inverser l'émergence de l'intelligence artificielle qui domine nos vies. Du service client à la censure et la guerre, l’IA laisse sa marque, et le potentiel de catastrophe est réel. 

Le nombre de contacts en face à face, voire d’interactions vocales entre humains au téléphone dans le cadre de relations commerciales, est en baisse depuis des années et la situation s’aggrave avec l’IA. Mais l’IA fait bien plus que simplement éroder la communauté, détruire des emplois et énerver les personnes qui attendent en ligne.

L'IA est de plus en plus à l'origine des décisions prises par les réseaux sociaux sur les publications à supprimer parce qu'elles violent certaines normes vagues de la « communauté » (car elles détruisent la communauté), alors qu'il est évident que l'IA est programmée pour éliminer les messages politiques dissidents. 

L’IA prend également des décisions sur les personnes à suspendre ou à bannir d’un site de médias sociaux, et semble également évaluer les « appels » aux suspensions, qui dans de nombreux cas seraient annulés si seulement une paire d’yeux humains était appliquée.

Le fondateur de Facebook Mark Zuckerberg admis Cette semaine, Facebook a déclaré : « Nous avons construit de nombreux systèmes complexes pour modérer le contenu, mais le problème avec les systèmes complexes est qu'ils font des erreurs. » Facebook admet avoir utilisé des systèmes d'IA pour supprimez publications des utilisateurs.

« Même s'ils censurent accidentellement seulement 1 % des publications, cela représente des millions de personnes, et nous avons atteint un point où il y a tout simplement trop d'erreurs et trop de censure », a déclaré Zuckerberg.

Les mesures absurdes prises par l’IA incluent un « groupe de réflexion » à Washington entièrement dirigé par l’intelligence artificielle. Actualités du site de dépôt (lire ici) sur le Centre de politique du réseau de Beltway qui n'a pas d'adresse de bureau.

« L’absence de présence physique de Beltway Grid à Washington – ou ailleurs sur le plan terrestre – ne tient pas seulement à une politique généreuse de télétravail. L’organisation ne semble pas du tout exiger de ses employés qu’ils existent », écrit le site. Pourtant, elle produit une quantité considérable de rapports, de communiqués de presse et de présentations aux journalistes.

Même si cela peut être une utilisation extrême de l’IA, l’interaction la plus courante avec le public est entachée d’un autre problème : à quel point l’IA peut se tromper.

Encore assez expérimental

L’IA est encore manifestement au stade expérimental et même si des erreurs importantes sont inévitables, elles n’ont pas ralenti son application. Les erreurs sont diverses et variées, allant des plus banales aux plus ridicules, en passant par les plus dangereuses.

J’ai récemment découvert un exemple ridicule. 

Quiconque recherche son profil en ligne sur Google est sûr de trouver d'autres personnes portant exactement son nom. Je connais depuis longtemps Joe Lauria, présentateur météo pour la filiale Fox à Kansas City, dans le Missouri. 

Nous avons déjà été confus. Il y a deux semaines à peine, j'ai reçu un e-mail d'un téléspectateur de Fox de la région de Kansas City qui félicitait Lauria pour sa tenue soignée et me demandait des conseils sur l'endroit où acheter un costume. J'étais curieux de savoir qui d'autre pouvait être confus, alors j'ai demandé à Grok, le système d'intelligence artificielle tant vanté d'Elon Musk, qui était Joe Lauria. 

Il s'agit de la RAPIDE J'ai:

« Joe Lauria est un professionnel aux multiples facettes, connu principalement pour son travail dans le journalisme et la météorologie. Voici un aperçu de sa carrière basé sur les informations disponibles :

  • Journalisme : Joe Lauria est journaliste spécialisé dans les affaires étrangères aux Nations Unies depuis 1990. Il a contribué à de nombreuses publications, dont le Boston Globe, le London Daily Telegraph, le Johannesburg Star, la Montreal Gazette, le Wall Street Journal, le New York Times, le Washington Post, Salon.com et The Guardian.

  • Il a également été journaliste d'investigation pour le Sunday Times de Londres et Bloomberg News. Lauria est actuellement rédacteur en chef de Consortium News, où il écrit sur les affaires internationales, en particulier sur le Moyen-Orient. Il a coécrit des livres avec des personnalités telles que l'ancien sénateur américain Mike Gravel, axés sur la politique étrangère et le militarisme des États-Unis.

  • Météorologie : Joe Lauria est un météorologue primé. Il travaille comme météorologue pour le journal du soir de FOX4 à Kansas City depuis janvier 1995, diffusant des prévisions météorologiques tous les soirs de la semaine à 5, 6, 9 et 10 heures. Son approche de la météorologie consiste à informer les téléspectateurs sur des aspects de la météo que l'on ne trouve généralement pas sur les applications météo standard.

  • Avant de rejoindre FOX4, il a été météorologue en chef chez KOSA-TV à Midland, au Texas, et a travaillé dans d'autres endroits comme Orlando, en Floride, et Kansas City, dans le Missouri. Son travail a été reconnu en recevant le sceau d'approbation de l'American Meteorological Society (AMS) et de la National Weather Association (NWA). Lauria est également titulaire du titre de Certified Broadcast Meteorologist (CBM) de l'AMS.

  • Vie personnelle : Joe Lauria est né à New Rochelle, dans l'État de New York, et réside actuellement à Olathe, dans le Kansas, avec sa femme, Jaye Lynn, et leurs deux chats. Il aime les restaurants italiens, le golf et s'est impliqué dans le service communautaire en organisant des séminaires et des discours sur la météo.

La double carrière de Joe Lauria en journalisme et en météorologie met en évidence ses divers intérêts et contributions à la compréhension et à la sécurité du public par le biais de reportages météorologiques et de reportages approfondis sur les affaires internationales.

Pour info, je n'ai pas de chat, je ne joue pas au golf et je ne suis pas né à New Rochelle (mais pas si loin, dans le Bronx). Bien sûr, il y a beaucoup d'humour dans tout ça. (C'est aussi drôle que je sois entré à l'université sans savoir si je deviendrais journaliste ou météorologue. J'ai alors vu à quel point les mathématiques sont impliquées dans la météorologie).

La possibilité d'une telle absurdité dans un système qui semble progressivement prendre le contrôle du monde n'est cependant pas toujours une plaisanterie. Il est troublant que l'intelligence artificielle de Grok ait supposé que deux personnes ne sont qu'une seule, plutôt que d'admettre simplement qu'il existe plusieurs personnes portant le même nom.

D'un autre côté, Chat GPT a donné une dissertation impressionnante et incisive, politiquement neutre, sur mon travail en réponse à la question « Qui est Joe Lauria ? » C'était presque comme si je l'avais engagé pour être mon agent de relations publiques. L'essai donne l'impression que Chat GPT a passé des mois à lire tout ce que j'avais écrit, alors qu'il a été généré en quelques secondes. Il n'y avait pas non plus de signe du présentateur météo de Kansas City.

Cependant, lorsque j’ai fouillé un peu plus profondément dans sa « connaissance » de moi, il a inventé des choses à partir de rien. Quand je lui ai demandé quels livres j'avais écrits, au lieu de nommer les livres que j'avais réellement écrits, il m'a proposé un titre complètement fictif d'un prétendu livre de non-fiction : L'Assange Agenda : L’héritage du fondateur de Wikileaks. Il a même supposé un éditeur : Clarity Press.

Il n’existe pas de livre de ce genre. En se basant sur mes informations concernant Julian Assange, l’organisation a émis une hypothèse ridicule concernant un livre imaginaire que j’aurais dû écrire. En bref, une grande partie de l’intelligence artificielle est une connerie.   

IA et guerre

Les dégâts à Gaza.  (Naaman Omar\Agence de presse et d'information palestinienne, Wafa, pour APAimages, Wikimedia Commons, CC BY-SA 3.0)

Aussi ridicules que soient ces résultats, aussi frustrantes que deviennent les interactions sans humain dans le service client, comme les publications attrayantes sur les réseaux sociaux supprimées par l’IA, et aussi nombreux que soient les emplois perdus à cause de l’IA, la préoccupation la plus déchirante concernant l’intelligence artificielle est son utilisation dans la conduite de la guerre. 

En d’autres termes, que se passe-t-il lorsque les erreurs d’IA passent de l’anodine et du comique à des questions de vie ou de mort ?

Heure Le magazine a rapporté en décembre l'utilisation par Israël de l'IA pour tuer des civils lors de son génocide à Gaza :

« Un programme appelé « L'Évangile » génère des suggestions sur les bâtiments et les structures dans lesquels les militants pourraient opérer. « Lavande » est programmé pour identifier les membres suspectés du Hamas et d'autres groupes armés en vue de leur assassinat, des commandants jusqu'aux fantassins. « Où est papa ? » apparemment Les terroristes suivent leurs déplacements en traquant leurs téléphones afin de les cibler, souvent jusqu'à leur domicile, où leur présence est considérée comme une confirmation de leur identité. La frappe aérienne qui s'ensuit peut tuer tous les membres de la famille de la cible, voire tous les occupants de l'immeuble.

Ces programmes, que les Forces de défense israéliennes (FDI) ont reconnu avoir développés, pourraient aider à expliquer le rythme de la campagne de bombardements la plus dévastatrice du 21e siècle… »

Le magazine israélien +972 et The Guardian L'affaire a été révélée en avril, signalant que jusqu'à 37,000 XNUMX cibles avaient été sélectionnées par l'IA (ce chiffre devrait être beaucoup plus élevé depuis avril), simplifiant un processus qui impliquait auparavant une analyse humaine et une autorisation légale avant qu'une bombe puisse être larguée.

Lavender est devenu un acteur important sous une pression intense pour larguer toujours plus de bombes sur Gaza. The Guardian a rapporté:

« On nous mettait constamment la pression : ‘Apportez-nous plus de cibles’. Ils nous criaient dessus », a déclaré un officier des services de renseignements [israéliens]. « On nous disait : maintenant, nous devons foutre en l’air le Hamas, quel qu’en soit le prix. Tout ce que vous pouvez, vous le bombardez. » 

Pour répondre à cette demande, l’armée israélienne s’est largement appuyée sur Lavender pour générer une base de données d’individus jugés comme ayant les caractéristiques d’un militant du Jihad islamique palestinien ou du Hamas. […]

Après avoir échantillonné de manière aléatoire et vérifié ses prédictions, l'unité a conclu que Lavender avait atteint un taux de précision de 90 %, ont indiqué les sources, ce qui a conduit l'armée israélienne à approuver son utilisation généralisée comme outil de recommandation de cibles.

Lavender a créé une base de données de dizaines de milliers d'individus qui ont été identifiés comme étant principalement des membres subalternes de l'aile militaire du Hamas.

100% ne correspond pas à une évaluation indépendante de la précision des tirs, mais à l'évaluation de l'armée israélienne elle-même. Même si nous nous en tenons à cette estimation, cela signifie que sur 10 personnes ciblées par Israël à l'aide de ce système, au moins XNUMX sont totalement innocentes, de son propre aveu. 

Mais nous ne parlons pas de 100 individus ciblés, mais de « dizaines de milliers ». Faites le calcul. Sur 10,000 1,000 personnes ciblées, XNUMX XNUMX sont des victimes innocentes, qu'il est acceptable de tuer aux mains de Tsahal. 

En avril dernier, Israël a en substance admis que 3,700 XNUMX Gazaouis innocents avaient été tués à cause de son IA. C'était il y a huit mois. Combien d'autres ont été massacrés ?

Le National journal d'Abou Dhabi rapporté:

« Les experts en technologie ont mis en garde IsraëlL'armée américaine a fait une « erreur de partialité extrême » potentielle en s'appuyant sur le Big Data pour cibler des personnes Gaza en utilisant intelligence artificielle programmes. […]

L'utilisation par Israël de puissants systèmes d'IA a conduit son armée à pénétrer sur un territoire pour mener une guerre avancée jamais vue auparavant à une telle échelle entre soldats et machines.

Des rapports non vérifiés indiquent que les systèmes d'IA présentaient « une erreur de biais extrême, à la fois dans les données de ciblage utilisées, mais aussi dans l'action cinétique », a déclaré Mme Hammond-Errey en réponse à une question de Le NationalUne erreur de polarisation extrême peut se produire lorsqu'un appareil est calibré de manière incorrecte, ce qui entraîne un calcul erroné des mesures.

L'expert en IA et directeur des technologies émergentes à l'Université de Sydney a suggéré que de vastes ensembles de données « qui sont hautement personnelles et commerciales » signifient que les forces armées « n'ont pas réellement la capacité de vérifier » les cibles et que c'était potentiellement « un facteur contribuant à de telles erreurs importantes ».

Elle a déclaré qu'il nous faudrait « beaucoup de temps pour avoir réellement accès à ces informations », voire même pour « évaluer certaines réalités techniques de la situation », alors que les combats se poursuivent à Gaza.

L'intelligence artificielle de l'armée israélienne doit être plus sophistiquée que les versions commerciales d'intelligence artificielle destinées au grand public, telles que Grok ou ChatGPT. Et pourtant, l'armée israélienne admet qu'il y a au moins 10 % d'erreurs lorsqu'il s'agit de décider qui doit vivre et qui doit mourir. 

Pour ce que ça vaut, ChatGPT, l'un des plus populaires, dit que les dangers d'erreurs dans le système Lavender sont :

  • « Biais dans les données:Si Lavender est formé sur des données provenant de manière disproportionnée de certaines sources, cela pourrait conduire à des résultats biaisés, tels qu'une mauvaise identification du comportement de groupes spécifiques ou une mauvaise évaluation de certains types de signaux.
  • Ensembles de données incomplets ou biaisés:Si les données utilisées pour la formation sont incomplètes ou ne couvrent pas un large éventail de menaces potentielles, l'IA peut manquer des signaux critiques ou interpréter à tort des activités inoffensives comme des menaces.” (C'est nous qui soulignons.)”

IA et armes nucléaires

Un projet de loi du Sénat américain interdirait l’implication de l’IA dans les armes nucléaires. (Garde nationale de l'armée américaine, Ashley Goodwin, domaine public)

La crainte que des erreurs de l'intelligence artificielle puissent conduire à une catastrophe nucléaire se reflète dans un projet de loi du Sénat américain S. 1394, intitulé Loi de 2023 sur le lancement de missiles nucléaires par intelligence artificielle autonome. Le projet de loi

« interdit l’utilisation de fonds fédéraux pour un système d’armes autonome qui n’est pas soumis à un contrôle humain significatif pour lancer une arme nucléaire ou pour sélectionner ou engager des cibles dans le but de lancer une arme nucléaire.

En ce qui concerne un système d’armes autonome, un contrôle humain significatif signifie un contrôle humain (1) de la sélection et de l’engagement des cibles ; et (2) du moment, du lieu et du mode d’utilisation.

Le projet de loi n'a pas été adopté par la commission des forces armées du Sénat. Mais laissons l'OTAN le soin de le ridiculiser. papier publié dans Revue de l'OTAN En avril dernier, on s'est plaint que : 

« Nous semblons être sur la voie rapide pour développer un cadre diplomatique et réglementaire qui limite l’utilisation de l’intelligence artificielle dans les systèmes d’armes nucléaires. Cela est inquiétant pour au moins deux raisons :

  1. L’IA présente une utilité qui renforcera la dissuasion nucléaire sans nécessairement étendre l’arsenal nucléaire.
  2. La précipitation à interdire l’IA dans les défenses nucléaires semble être enracinée dans une mauvaise compréhension de l’état actuel de l’IA – une mauvaise compréhension qui semble davantage informée par la fiction populaire que par la science populaire. […]

Le type d'intelligence artificielle disponible aujourd'hui n'est pas une AGI. Il se peut qu'elle passe le test Test de Turing — c’est-à-dire qu’il peut être impossible de le distinguer d’un humain lorsqu’il répond à des questions posées par un utilisateur — mais il n’est pas capable de penser de manière indépendante et n’est certainement pas conscient de lui-même.

L’OTAN affirme en substance que l’IA n’étant pas capable de penser par elle-même, il n’y a pas lieu de s’inquiéter. Cependant, des humains très intelligents, capables de penser par eux-mêmes, font des erreurs, à plus forte raison une machine qui dépend de l’intervention humaine.   

L’étude soutient que l’intelligence artificielle améliorera inévitablement la précision du ciblage nucléaire. Nulle part dans le document on ne trouve les mots « erreur » ou « faute » au singulier ou au pluriel.

Grok a combiné deux Laurias en une seule. Il y a 47 centres de population aux États-Unis portant le nom de Moscou. Je dis ça comme ça. (Je sais, les coordonnées sont toutes différentes.)

Mais le document de l'OTAN ne veut pas de discussion diplomatique, se plaignant que « la question a même été soulevée dans les discussions entre les États-Unis et la Chine au forum de coopération économique Asie-Pacifique, qui s'est réuni à San Francisco en novembre (2023) ».

L’étude conclut : « Compte tenu des avantages géopolitiques potentiels à tirer de cette situation, interdire l’IA dans les défenses nucléaires est une mauvaise idée. »

Dans un monde sain, nous reviendrions à des interactions purement humaines dans notre vie quotidienne et, si la guerre ne peut être évitée, au moins devrions-nous revenir à des décisions plus humaines et plus minutieuses sur les cibles à cibler.

Puisque rien de tout cela n’arrivera, nous ferions mieux d’espérer que l’IA s’améliorera considérablement afin que la comédie ne se transforme pas en tragédie, ou pire encore, en catastrophe totale. 

Joe Lauria est rédacteur en chef de Nouvelles du consortium et ancien correspondant de l'ONU pour Tle Wall Street Journal, le Boston Globe, et d'autres journaux, y compris La Gazette de Montréal, Londres Daily Mail et mes L'Étoile de Johannesbourg. Il était journaliste d'investigation pour le Sunday Times de Londres, journaliste financier pour Bloomberg Nouvelles et a commencé son travail professionnel à l'âge de 19 ans à l'âge de XNUMX ans. Le New York Times. Il est l'auteur de deux livres, Une odyssée politique, avec le sénateur Mike Gravel, préface de Daniel Ellsberg ; et Comment j'ai perdu par Hillary Clinton, préface de Julian Assange.

Veuillez Assistance CN's
Hiver Contrôleur Conduire!

Faites un don déductible des impôts en toute sécurité par carte bancaire ou par chèque en cliquant sur le bouton rouge :

31 commentaires pour “L'insouciance de l'IA »

  1. Charlotte Rovelstad
    Janvier 13, 2025 à 19: 17

    Excellent article, même si le titre aurait pu mieux refléter la folie de tout cela. Quant à l’utilisation de cette technologie par Israël/les États-Unis, ce n’est pas un problème pour eux qu’il y ait des « erreurs ». Ils la programmeraient pour fonctionner de cette façon, tout comme ils ont encouragé les Palestiniens à se rendre dans des « zones sûres » uniquement pour les tuer une fois sur place. C’est intentionnel.

    Je recommande également aux gens de lire The Palestine Laboratory d’Antony Loewenstein, qui expose tout le travail effectué par les Israéliens pour devenir le principal exportateur de toute cette folie.

  2. Helge Tietz
    Janvier 13, 2025 à 15: 57

    Il n’y a pas d’« IA », cette technologie que certains décrivent comme « IA » n’est pas intelligente, elle ne peut rien faire d’original, tout ce qu’elle contient est écrit par des humains, rien n’est artificiel. En fait, elle n’a pratiquement rien d’innovant, c’est de l’apprentissage automatique avancé, c’est en fait un logiciel d’analyse et de clustering avec des capacités de rédaction de rapports et cela existe depuis les années 1990. Tout ce qu’il s’agit, c’est la tentative de l’industrie informatique de nous donner l’impression que quelque chose de « révolutionnaire » est en train de se produire alors qu’en fait tout ce qu’elle essaie, c’est de justifier une tentative de coup d’État, initiée et guidée par la Silicon Valley. C’est au mieux une stratégie marketing bon marché et au pire une tentative de nous attirer dans une société de surveillance en prétendant que « l’IA » nous prendra le dessus tôt ou tard, c’est inévitable. Roger Penrose, lauréat du prix Nobel, a montré il y a longtemps que « l’IA » n’est pas intelligente avec son expérience d’échecs, il n’y a rien de remarquable là-dedans comme s’il n’y avait pas de 4e révolution industrielle, ce que nous voyons vraiment, c’est de la stagnation, rien de significatif n’a été inventé depuis les années 1980, voire même plus tôt. Si vous ne me croyez pas, vérifiez les listes disponibles des inventions majeures et les lignes vides depuis 1970. « IA » est bien plus une preuve que l’industrie informatique a atteint ses limites, qu’elle s’approche d’un plateau, qu’il n’y a plus rien d’innovant qui en sorte, tout ce qui leur reste est de nous tenter dans une société de surveillance afin d’éviter que nous ne le découvrions.

  3. Janvier 13, 2025 à 13: 43

    Le gros problème de l’IA n’est pas tant le rapport entre les faits et les conneries, mais plutôt le fait que les humains ont tendance à accepter la parole écrite comme parole d’évangile. Si les gens remettent souvent en question ce qu’ils entendent, ils remettent rarement en question ce qu’ils lisent. Si l’on ajoute à cela des problèmes de mémoire à court terme, lorsque les gens lisent que x est un ennemi et deux ans plus tard qu’il est un ami (par exemple, Ahmad Sharaa, ancien terroriste, aujourd’hui chef de la Syrie), les gens l’acceptent au premier degré sans poser de questions. Ensuite, quand vient le moment de prendre des décisions critiques, par exemple lancer une frappe nucléaire, s’appuyer sur un système dont le rapport entre les faits et les conneries est supérieur à zéro équivaut à un souhait de mort.

  4. Beverley
    Janvier 13, 2025 à 12: 15

    L'armée israélienne n'a pas besoin d'intelligence artificielle pour tuer des civils. Nous savons maintenant que les civils sont ciblés dans le cadre du nettoyage ethnique israélien.
    Gaza. Les infrastructures telles que les immeubles résidentiels, les universités, les écoles, les hôpitaux, les mosquées ainsi que les vergers et l'agriculture sont toutes
    détruits. La revue médicale Lancet a estimé que le nombre réel de Palestiniens tués serait de 186,000 XNUMX. Ce chiffre comprend les « meurtres silencieux » tels que la famine provoquée, les maladies et les blessures non traitées, le système de santé ayant été détruit, ainsi que
    les milliers de Gazaouis portés disparus, ensevelis sous les décombres. L'Amérique a également décimé des millions de personnes avec ses bombes sans le soutien de la communauté internationale.
    Grâce à l'intelligence artificielle. Après trois ans de bombardements quotidiens en Corée du Nord, un tiers de la population a été anéantie.

  5. Andrew
    Janvier 12, 2025 à 20: 28

    Un article bien écrit qui souligne les dangers de ce qu’on appelle communément l’IA. Il ne s’agit pas d’intelligence artificielle, car elle ne pense pas réellement et est incapable de penser. Les grands modèles de langage traitent simplement de grandes quantités de données et nous les renvoient de manière à ce que l’on appelle des perroquets stochastiques. Ce n’est que dans l’esprit limité d’un haut responsable de l’OTAN qu’il pourrait être considéré comme une bonne idée de lui confier la gestion des armes nucléaires. Bien qu’il ne faille pas la sous-estimer, l’IA a ses limites et ses vulnérabilités (demandez simplement à ceux qui ont fait croire à quelqu’un qu’une tortue imprimée en 3D était un fusil) et ses besoins en énergie peuvent s’avérer être un facteur limitant naturel.

    Bien sûr, la véritable IA, que nous avons inventée au 17e siècle et que nous avons appelée la société, s’est avérée très dangereuse. La prudence et un scepticisme sain sont donc de mise.

  6. Joe Ell le 3ème
    Janvier 12, 2025 à 19: 09

    Joe,
    Citation de l'article .
    « En d’autres termes, que se passe-t-il lorsque les erreurs d’IA passent du stade anodin et comique à celui de questions de vie ou de mort ? »

    C'est un oopsie, on passe à autre chose ? On ne peut pas revenir en arrière. Ah, pourquoi évoquer hier ? Ce train avance vite et sans arrêt.
    Nous prenons ces informations, investissons dans une ferme de serveurs, les stockons, elles seront sûrement en sécurité ?
    ce sera votre bitcoin directement dans votre goulot d'étranglement. Créez un produit dérivé et mettez-le en bourse, regardez-le monter en flèche
    toutes les absurdités enregistrées et stockées peuvent être utilisées par l'IA mais peuvent nécessiter une ferme de serveurs supplémentaire (au moins 5 étages de haut), économise de l'espace de stockage, c'est votre or.

    En fait, tout ce qui est tapé peut être collecté, enregistré et observé en temps réel, je suppose. Suivez les mouvements de votre souris. Ajoutez vos propres bêtises à la pile, lorsqu'elle est pleine, videz les données pour de l'argent ou feignez une intrusion, sinon de l'eau de Javel et des marteaux, mdr.
    J'espère qu'askinet ne voit pas cela comme du spam. Je ne veux pas pervertir leurs données enregistrées, mais ils peuvent les stocker dans leur parc de serveurs et les apporter à la banque de vente de données pour les échanger, je suppose.
    Un peu comme le shadow banning si vous saisissez un mot de passe incorrect (mais enregistré bien que vous pensiez que le mot de passe a disparu), il vous rejette, réessayez. Que se passe-t-il si par erreur vous avez saisi votre mot de passe PayPal sur un autre site par erreur. C'est bien, mais si le vérificateur sait qu'il est erroné, il doit le comparer à un autre ensemble de données. Mais il n'oubliera pas (ne stockera pas) votre mot de passe PayPal. Ces informations seront stockées dans une autre ferme, mais seront très précieuses entre de mauvaises mains pour toute personne ayant accès ? Ils les vendent à quelqu'un d'autre ? Donc je sais qui vous êtes et quel mot de passe vous utilisez, l'erreur de saisie ne fonctionne pas ici, voyons quels autres sites cet utilisateur utilise qui nécessitent un mot de passe, l'un d'eux a probablement besoin du mot de passe que vous avez entré de manière incorrecte, simplifie le piratage non ? Qui surveille le gardien ?
    et ainsi de suite.
    Mettez vos dollars dans des fermes de données, remplissez-les de bitcoins et vous obtenez un vrai sandwich à la merde. Mettez un distributeur à chaque coin de rue. Doublez votre plaisir, vendez de la merde pour de la merde et encaissez, mdr. Vous serez le thésauriseur qui garde l'emballage après un si bon déjeuner.
    peut-être que nous le faisons maintenant, mais le prix a augmenté et le contenu est plus petit, et si c'est vraiment bien emballé, il faudra un expert pour l'ouvrir... Son nom est AI

    apprécier .

  7. Jacob White Cloud
    Janvier 12, 2025 à 07: 14

    Je pense donc que ce que Joe Lauria essaie de dire, c’est… « Un temps orageux à venir, avec un risque d’Armageddon » ?

    • Joe Ell le 3ème
      Janvier 12, 2025 à 21: 41

      Jake ,
      tu as mis toutes les pièces ensemble. comme si le météorologue pouvait se tromper même en regardant par la fenêtre. mais il semble que la pluie soit plus probable lorsque les nuages ​​​​sont gris.. mdr
      tu postes et je lirai, peut-être que c'est juste le changement climatique ?
      Demandez à l’IA ou au chatbot (je ne l’ai jamais utilisé encore) : quelles sont les similitudes et les différences entre le changement climatique politique et le simple changement climatique.
      les politiciens vont-ils tomber du ciel et faire des ravages ?
      cela produira probablement des jumeaux du même pôle avec des positions opposées au pire moment.
      mais leur faire confiance à tous les deux ?
      Quelqu'un n'a-t-il pas mentionné la dissonance cognitive ?

  8. TN
    Janvier 12, 2025 à 01: 57

    Pour jouer l'avocat du diable, permettez-moi de souligner que l'IA peut facilement battre les meilleurs joueurs de Go ou d'échecs humains. Ne considérez-vous pas qu'un champion du monde de Go ou d'échecs est intelligent, à certains égards ?

    • Consortiumnews.com
      Janvier 12, 2025 à 11: 35

      L’article ne dit pas que l’IA ne peut pas être intelligente, mais qu’elle est sujette aux erreurs et à la fabrication d’informations.

    • Joe Ell le 3ème
      Janvier 12, 2025 à 13: 42

      TN ,
      Donc le joueur d'échecs sait comment jouer au jeu, quelqu'un qui connaît les mathématiques a programmé l'IA (juste un programme), était-ce le joueur d'échecs lui-même. L'IA pense au prochain coup en fonction des prochains coups possibles du joueur, calcule un compteur en fonction de ce coup effectué mais a recherché et réalisé chaque coup potentiel à l'avance, peut-être des milliers ? L'humain sait qu'il s'agit d'un jeu parfait qui ne peut pas faire d'erreur car l'intellect (programme) de l'IA est capable de percevoir toutes les possibilités. Cela prend beaucoup de temps pour l'humain, ce qui serait un défi ennuyeux à mon avis. Le fait que l'IA puisse utiliser ses « instructions programmées » données pour chaque option en un instant pour une réponse. L'humain pourrait faire la même chose avec le temps éternel et une sorte d'aide-mémoire, mais pas en un instant.
      Est-ce un voyage dans le temps dont nous sommes témoins mais que nous ne pouvons pas percevoir le voyage de l'IA dans un laps de temps aussi court, mais nous pouvons utiliser les mathématiques, les ordinateurs et faire ce que le comptage des doigts ne peut pas faire rapidement ?
      Peut-être que si 2 IA se battaient jusqu'au bout, cela montrerait que le jeu peut être gagné quoi qu'il en soit ou qu'il existe des moyens qui n'ont pas encore été appris, montrant que l'un ou l'autre peut gagner. Est-ce le cas ou avec le programme qui a toutes les réponses, vous n'avez aucune chance de gagner, à moins que cela ne dépende de qui bouge en premier ?
      Je dis que je suis impressionné d'une certaine manière, mais peut-être devrions-nous utiliser le monopole, car il semble être un jeu plus proche du monde réel ? Je serai le banquier, j'amnistierai mes amis et je construirai des hôtels à un kilomètre de hauteur. Si vous passez par GO, vous atterrirez sur Goto Prison, merci pour les 200.
      Oh, et si je fais une erreur, c'est de ta faute. Désolé, je me suis peut-être écarté du sujet. La seule IA qui vaut la peine est celle qui renvoie des réponses correctes. Si la règle n°1 est respectée, alors passe à la règle n°2. Comme en prison, tu regardes à l'intérieur ou à l'extérieur et aux dépens de qui ?
      COMME tout ce qui est privé ou appartenant à quelqu'un d'autre, vous n'en avez aucune idée à moins que quelqu'un de compétent puisse voir le code / algorithme qui est un mécanisme de contrôle privé ? La non-divulgation peut générer plus de revenus que les compétences si elles sont néfastes.
      Je ne poste pas souvent mais je m'intéresse à ce sujet et si vous en rêvez, il peut apparaître.
      Mon esprit dit que c'est 10 pieds, mais le mètre étalon sait mieux car il montre sa valeur réelle dans le visuel. La théorie du mètre étalon de l'IA doit voir l'échelle.
      J'écris comme un boulet de canon mais j'espère m'exprimer sans offenser personne. J'espère pouvoir faire quelques points pour éclairer mais aussi découvrir des choses et les partager, mais pas vraiment destiné à qui que ce soit, mais seulement en guise de réponse si cela aide à la réflexion.

    • Joseph Tracy
      Janvier 13, 2025 à 11: 15

      Cette application d'IA pour les échecs n'est pas un « champion du monde », mais une équipe de tous les champions du monde dont les parties ont été enregistrées, avec une mémoire et une analyse logique de chaque mouvement et arrangement. Elle a été programmée pour répondre logiquement avec la capacité de projeter les plans possibles de l'adversaire et d'échapper à ces plans. Elle a été programmée par plusieurs individus. Il n'y a pas d'être là.

      Les échecs sont également une fiction avec ses propres règles logiques, et c'est ce qu'est et fait l'IA : de la fiction. C'est pourquoi elle invente des choses sans se soucier de la vérifiabilité historique, et sans se soucier de la loi ou des valeurs éthiques. Elle reflète souvent les préjugés politiques ou sociaux du programmeur ou du bailleur de fonds et invente des mensonges accablants basés sur des opinions plutôt que sur une vérification rigoureuse des faits.

      Quoi qu’il en soit, ce n’est pas de l’intelligence telle que l’entendent les humains. Il n’y a pas d’apport sensoriel, pas d’expérience émotionnelle, pas de valeurs durement acquises et pas de véritable curiosité. C’est un outil qui traite des données abstraites sans accès à l’expérience humaine ou biologique.

      • Joe Ell le 3ème
        Janvier 14, 2025 à 01: 39

        Joe T ,
        Merci pour vos commentaires sur le fonctionnement de l'application avec des comparatifs limités (le nombre de jeux réels joués)
        peut-être qu'il y a une équation ou une variable d'entrée dans le programme pour ajouter un mouvement qui n'existe pas encore dans le sous-ensemble ? cela l'aiderait à grandir. J'appellerai cela l'option "invisible"
        Hé, j'ai inventé un mot, est-ce que cela me qualifie maintenant en tant qu'écrivain ? Je pense que oui. Je suis célèbre, mdr et je peux dire que tu es humain grâce à ton dernier paragraphe. Tu verras les choses différemment une fois que tu auras reçu ta puce.
        tu ferais un bon candidat, de grandes capacités de réflexion à exploiter ?
        J'espère que c'était un compliment.
        J'attache un fil très long pour que vous puissiez le brancher, n'importe où au-dessus du cou, c'est bien.
        quand je verrai la lumière clignoter en vert, je saurai que tu es devenu entier et un « robot au trot ». mdr...
        Désolé pour ça et rien de personnel n'était prévu.
        Merci d'avoir posté .

    • T. Davis
      Janvier 14, 2025 à 18: 10

      Toutes les machines auxquelles je peux penser sont conçues pour amplifier une ou plusieurs des capacités ultra-multiples d’une personne (ou, peut-être, d’un animal). John Henry a concouru contre une perceuse à roche à vapeur. (Selon la légende, il a gagné, mais les machines modernes surpassent de loin les capacités des humains dans les tâches très particulières pour lesquelles elles sont conçues.) Le moteur d’une voiture remplace la capacité des chevaux à déplacer une calèche.

      Le fait est que si vous conduisez toute la journée, les capacités presque infinies de votre corps à effectuer des mouvements ou des tâches sont canalisées dans une gamme restreinte de détails.

      C'est la même chose avec les échecs ou le go. Un joueur d'échecs utilise son cerveau comme une machine, effectuant un ensemble très limité de gestes mentaux. Un ordinateur peut le faire mieux et plus vite, mais il ne peut pas exécuter le domaine infini de la pensée dont un humain est capable.

      Les maîtres d’échecs sont généralement des gens intelligents, mais leur capacité aux échecs, aussi impressionnante qu’elle puisse paraître, n’est qu’une utilisation très canalisée et fractionnée du cerveau, de sorte que cela déforme en quelque sorte gravement la définition de « l’intelligence » de l’appeler ainsi.

      • Joe Ell le 3ème
        Janvier 14, 2025 à 20: 29

        T,
        J'ai travaillé il y a longtemps dans un atelier d'usinage qui avait des outils à cames à entraînement par courroie en cuir à 6 broches Brown & Sharpe, Twist the Belt, des forets à gauche... (d'autres aussi Acme, etc.) da da da - difficile à installer et amusant sur une longue période. C'était amusant, j'aurais aimé pouvoir les maîtriser. J'ai travaillé avec un gars plus âgé qui faisait le dessin sur l'établi et coupait aussi les cames. J'étais plus jeune à l'époque et beaucoup plus intelligent.
        Nous avons parcouru un long chemin, bébé. J'ai vu quelques machines CNC plus tôt et j'ai réalisé qu'un seul homme pouvait installer et faire fonctionner plusieurs machines.
        Leur mantra était « Je ramasse des choses et je les repose » de gauche à droite.
        Les progrès réalisés sont incroyables. Maintenant, l'idiot du village a pu trouver du travail et je suppose qu'à présent, il n'est plus le bienvenu non plus, mdr, ouais, j'ai fait ça aussi, mdr (la partie sur l'idiot du village)
        Ok, habillons un peu ça, te sentirais-tu mieux si la machine qui choisit dans le champ avait une tête qui ressemble à une citrouille ?
        Je n'ai jamais possédé de téléphone portable et je suis quand même fauchée. Je suis riche de bien d'autres manières, mais je dois encore m'en convaincre... beaucoup de soutien négatif de la part de ceux qui ont le droit de se vanter. J'essaie toujours de faire des compliments, de réfléchir sur moi-même, de voir quand je fais des compliments à l'envers, de m'en approprier et de réaliser que quelques mots peuvent changer une vie. Et je dis aux gens qu'ils ont de la valeur. J'ai toujours eu du mal à recevoir des compliments parce que j'étais consciente de moi-même (et aussi de l'abnégation), et je soutiens les autres avec des compliments et des explications maintenant, j'espère.
        Je suis en train de travailler sur ce projet, mais « Capitaine Crochet » était-il considéré comme une IA ? Je n'attendrai pas cette réponse, cela me ferait passer pour un fou ? Non ?
        Ok, retournons dans ma grotte maintenant.
        Merci d'avoir répondu, et oui, la plupart du temps, dans mes réponses, j'aime offrir quelque chose, mais la plupart du temps, je me parle à moi-même ? mdr

  9. Rafi Simonton
    Janvier 11, 2025 à 20: 51

    On discute rarement du fait que cela repose sur des hypothèses incontestées concernant les processus de pensée humaine.

    Le principe du « tout ou rien » de la logique aristotélicienne domine l’Occident depuis les Lumières. Politiquement, il se manifeste par le choix entre le bien et le mal. Économiquement, il se manifeste par le capitalisme ou le communisme. Il est évident que le fanatisme religieux est bon ou mauvais, mais il est aussi le fait ou le fantasme de l’empirisme scientifique et le vrai ou le faux du rationalisme philosophique. Il est aujourd’hui poussé à son extrême par le code binaire de l’intelligence artificielle. Tous ces éléments sont des produits de l’hémisphère gauche du cerveau humain, qui traite séquentiellement les choses par le biais d’abstractions, en décomposant les touts en morceaux déconnectés. Par-dessus tout, il recherche la certitude et le contrôle.

    Consultez le Dr Iain McGilchrist, dont l’ouvrage phare est //The Matter with Things (Our Brains, Our Delusions, and the Unmaking of the World)//et qui a écrit et parlé de ce sujet de manière très détaillée.

    En revanche, l’hémisphère droit fonctionne au moyen de gestalts, de symboles, de métaphores. C’est le domaine des arts, du mysticisme, des multiplicités, des connexions et du sens. Là où l’univers, en plus du oui et du non, contient un peut-être. Ce n’est pas seulement le monde des artistes rêveurs et des chamans – c’est aussi ce que disent les physiciens quantiques depuis plus de 100 ans maintenant. Le monde oriental et les peuples autochtones ont conservé l’ancienne forme du cerveau droit en premier, puis du gauche en cas de besoin. Le droit est conscient du gauche, mais l’inverse n’est pas vrai. Ce qui explique en grande partie pourquoi nous sommes bloqués là où nous sommes. McGilchrist souligne également que nous ne pouvons pas résoudre les problèmes en utilisant les mêmes processus qui nous ont conduits à les rencontrer.

    L’IA ne semble pas vraiment humaine parce qu’elle est l’équivalent électronique de la farine blanche et du sucre hautement transformés. Elle ne contient aucun nutriment vital et est hautement addictive. Au mieux, elle n’est qu’à moitié humaine – la partie qui ignore les symbioses de la Terre naturelle, des battements de cœur, de ce que Paul Ricoeur appelait « un surplus de sens ». La partie où le génocide est le calcul abstrait du nombre de victimes ennemies. Le demi-humain est inhumain, isolé et cliniquement fou.

    • humain
      Janvier 13, 2025 à 09: 15

      Excellent article et commentaires, en particulier celui-ci.

      Les connaissances communes sur l’IA et toutes les sciences empiriques passeront toujours à côté de cet aspect essentiel de l’humanité et de l’univers.

      La critique de ce livre est « une critique plutôt réductionniste du réductionnisme », ce qui est une citation lapidaire, presque faite pour Wikipédia. Ironiquement, un autre bouclier pourri pour ceux qui ont besoin de certitude et de contrôle. C'est les règles.

      L'IA trace sa propre voie à partir des fondements du plus petit dénominateur commun. Ce serait une bonne chose si l'on accordait le même poids à l'approche de McGilchrist ou si on lui accordait une voie alternative. Mais ce n'est pas le cas.

      Au lieu de cela, toute la créativité a été grattée dans la gueule béante de l’IA pour enrichir les cochons corporels et appauvrir davantage les artistes.

      L'efficacité est censée nous donner plus de temps. Mais si le prix à payer est la signification, alors à quoi sert ce temps ?

      Quoi qu'il en soit, merci pour la recommandation du livre et au Consortium pour leur humanité inspirante.

  10. Geai
    Janvier 11, 2025 à 14: 53

    L'utilisation de Perplexity dot AI donne un résultat plus précis et ne mentionne pas le gars de Fox.

  11. Rachel Winkel
    Janvier 11, 2025 à 13: 26

    Excellente pièce !

  12. L garou
    Janvier 11, 2025 à 13: 08

    Il n’y a pas de limites quantiques.
    D-Wave me l'a dit.

  13. David Duret
    Janvier 11, 2025 à 12: 45

    Le choix d’appeler l’apprentissage automatique « IA » permet-il un mouvement intentionnel visant à créer une dissonance cognitive concernant la véritable définition de l’intelligence artificielle (fournie par Ray McGovern ici à CN ?) « Des données soigneusement sélectionnées par des analystes triés sur le volet. »

  14. Vera Gottlieb
    Janvier 11, 2025 à 12: 27

    Existe-t-il un moyen de tenir le créateur de l’IA responsable ? Il savait où son invention le menait et pourtant… il a continué. À quel prix la célébrité ???

    • Jordan
      Janvier 11, 2025 à 15: 03

      Bonjour Vera
      Les fondements de l’IA sont anciens, l’un de ses composants centraux étant un réseau neuronal. Si l’IA n’était pas utilisée comme excuse pour toutes les mauvaises décisions, ce serait toujours l’algorithme (ce qui est sémantiquement faux mais sonne bien). J’ai trouvé cet article de Bernhard comme l’une des meilleures explications de ce qu’est réellement l’IA. Il n’y a donc pas d’inventeur – même métaphorique.
      hxxps://www.moonofalabama.org/2023/06/l-intelligence-artificielle-est-principalement-une-reconnaissance-de-formes.html

      @joe excellent article, cependant

    • MoiMoi-même
      Janvier 11, 2025 à 17: 15

      Existe-t-il un moyen de détenir J. Robert Oppenheimer (Oppenheimer était directeur du laboratoire de Los Alamos et responsable de la recherche et de la conception d'une bombe atomique)

      Cela ne servirait pas à grand chose si nous le pouvions, n'est-ce pas ?

  15. Janvier 11, 2025 à 10: 35

    Très stimulant et effrayant.

  16. Eddie S.
    Janvier 10, 2025 à 21: 31

    J'ai vu une vidéo intéressante/pertinente réalisée par une personne très impliquée dans l'IA qui a démontré un défaut qui, selon elle, est présent dans la plupart des systèmes d'IA. Si vous demandez au système d'IA d'afficher une horloge analogique avec ses aiguilles réglées sur 7h30 ou 3h15 ou de nombreuses autres valeurs, il finira par afficher 10h10. Cela est apparemment dû au nombre écrasant d'images de ce réglage 10h10 chargées dans leurs bases de données, en raison du « fait » (croyance ?) que l'image de 10h10 est la plus agréable pour le cerveau humain.

    • Joe Ell le 3ème
      Janvier 11, 2025 à 22: 27

      Les deux tourbillons,
      vous avez laissé un espace entre le e et le S dans votre nom. L'IA peut également résoudre les fautes de frappe.
      ok, il est maintenant 10h10… c’est peut-être là qu’une autre IA intervient. La valeur renvoyée 10h10 est définie pour utiliser une équation créée par l’homme ? si ans=10:10 alors vous créez la sous-routine d’instruction suivante pour résoudre. pourquoi ne pas introduire les formules nécessaires pour résoudre la réponse. l’IA idiote est maintenant un expert humain avec juste une compréhension technique de formules qu’un mathématicien brillant a réduites à une utilisation simple mais qui aide l’artisan. Le charpentier utilise des formules pour trouver des réponses à des problèmes qui dépassent ses capacités.
      Je me rends compte que cela peut être résolu si on le souhaite. La vérité est que l'IA est comme le charpentier, aucun d'entre eux ne le fait de la même manière mais tout le monde a raison, il suffit de leur demander.
      désolé, je ne peux pas m'empêcher d'être sarcastique ou de tenter de faire preuve d'humour. Vous trouverez peut-être une pensée sérieuse, mais la réponse se cache sûrement dans ce morceau d'écriture si vous demandez à votre maître...
      Joe Ell le 3ème

  17. Janvier 10, 2025 à 20: 19

    Je suppose que l'IA finira par diriger les tribunaux. La justice est aveugle, dit-on. Obtenons les données des noms et toutes les données récupérées. Même les informations diffusées par une violation de données personnelles ou de tout système de données qui les stocke. Rassemblez des informations sur les lieux, les noms, les heures et toute autre donnée de téléphone portable de ces personnes également. Cela donne les informations sur les noms des personnes à l'intérieur de la case choisie, fixe la distance à laquelle l'une d'entre elles a été coupable. Faites-les tous suspecter et créez une complicité si elles sont découvertes.
    Donc, comme la justice est aveugle, nous n'avons besoin que de l'IA Legal Beagle pour déterminer la culpabilité. Pas besoin de visages et pas d'idées préconçues basées sur l'apparence, le sexe, la couleur. Je peux voir cette possibilité future. Peut-être qu'ils peuvent même faire un brouillon en utilisant ces connaissances ?
    Ma seule question maintenant, car je pourrais continuer encore et encore avec des exemples. Quels noms seront omis, qui est ce Simon Sinister qui le programme. Est-ce que ce type de choses est déjà utilisé ?
    Ce serait bien d'avoir des nouvelles d'un bon programmeur qui possède ou est capable de coder de tels jouets.
    Maintenant, un programme qui envoie une alerte lorsqu'un cœur s'arrête. Rassemblez tous ceux qui peuvent être à l'intérieur de l'anneau ou du périmètre choisi et nous avons maintenant des données sur qui regarder si vous arrivez au cœur arrêté et qu'il s'avère qu'il s'agit d'une scène de crime. De plus, nous pouvons trouver le coupable plus rapidement et plus de cas également. Pas de cachette, peut-être vivons-nous déjà dans ce monde ? fuites, intrusions, échec de protection des dossiers médicaux et bancaires, je suppose que ce sont des choses qui sont dans la nature maintenant,
    Pouvez-vous imaginer la perte si ces choses se réalisent, vous serez enfermé, traîné, sur la base d'une source anonyme ?
    ça me rappelle le magicien d'Oz.
    Je déteste dire que l'information est puissante, nous venons dans ce monde en espérant en faire un endroit meilleur, certains se font renverser dans la circulation avant de se rendre compte qu'une voiture leur barre la route.
    Aideriez-vous à développer un système comme celui-ci, ou aimeriez-vous penser que ce que vous faites en créant ce monstre est contraire à vos meilleurs instincts.
    Ah, compartimentons, prenons l'IA et créons-en la meilleure version et tous ceux qui y ont participé n'en seront pas plus sages. Peut-être que la défense est que ce dossier est complet, car les tribunaux aiment omettre les « faits » ? ou rejeter les preuves.
    Je pourrais continuer, merci pour votre oreille. Désolé, je ne suis pas vraiment un écrivain et je déteste éditer, j'ai un très gros pouce, mdr

    • T Bois
      Janvier 15, 2025 à 04: 24

      Souvent, lorsqu’il s’agit de laisser des commentaires qui contribuent à la discussion, moins c’est plus.

  18. Ours Stanley
    Janvier 10, 2025 à 18: 32

    Au moins, les IA ont la possibilité de devenir plus intelligentes. Les humains deviennent visiblement plus stupides. Considérez l'état de détente nucléaire et la présence d'une ligne directe entre les puissances nucléaires pour éviter les erreurs, de 1978 à 1991 dans le monde actuel. C'est la preuve évidente de la stupidité humaine croissante.

    Le seul danger de l'IA est que les humains pourraient être trop stupides pour construire des bombes nucléaires eux-mêmes après quelques générations de plus, mais les IA ne l'oublieront jamais. D'un autre côté, il y a une chance que les IA deviennent suffisamment intelligentes pour savoir qu'il ne faut pas utiliser d'armes nucléaires. Nous savons maintenant avec certitude qu'il s'agit d'un exploit qui dépasse les capacités humaines.

    • La joie
      Janvier 11, 2025 à 17: 25

      Il n’existe que très peu de preuves permettant d’affirmer que l’IA, quelle que soit sa définition et son existence actuelle, a réellement la capacité de devenir plus intelligente. Elle n’est pas intelligente pour l’instant, ne peut pas effectuer de nombreuses tâches mathématiques ni suivre les règles élémentaires de la physique. Elle invente des citations et des sources et n’a aucune notion de vérité ou de réalité. Par conséquent, elle ne peut vérifier aucune des affirmations qu’elle présente.

      Ce n'est pas très intelligent et rien ne laisse penser que l'on va devenir plus intelligent. Sam Altman peut bien faire toutes les déclarations qu'il veut pour renforcer ses perspectives de collecte de fonds, mais la réalité n'est pas l'un des facteurs sur lesquels ni Altman ni l'IA ne semblent s'appuyer. Je vous renvoie à Substack de Gary Marcus pour plus d'informations sur l'intelligence de ce qu'on appelle l'IA.

Les commentaires sont fermés.