Intelligence artificielle

2023 - 3 - 30

Post cover
Image courtesy of "Euronews"

L'intelligence artificielle, un danger pour l'humanité ? (Euronews)

De célèbres entrepreneurs et universitaires alertent : selon eux, l'intelligence artificielle (IA) "pose des risques profonds pour la société et l'humanité" ...

De célèbres entrepreneurs et universitaires alertent : selon eux, l'intelligence artificielle (IA) "pose des risques profonds pour la société et l'humanité". La bonne nouvelle, selon la note, c'est que "le déplacement des travailleurs dû à l'automatisation a toujours été compensé par la création de nouveaux emplois, et l'émergence de nouvelles professions à la suite d'innovations technologiques représente la grande majorité de la croissance de l'emploi à long terme". [AI Now Institute](https://ainowinstitute.org/), estime qu'aujourd'hui, "à bien des égards, nous en sommes déjà là", les systèmes d'IA exacerbant "des schémas d'inégalité de longue date", en particulier dans des domaines tels que la recherche d'emploi ou l'éducation.

Post cover
Image courtesy of "RTL.fr"

Intelligence artificielle : Elon Musk et des centaines d'experts ... (RTL.fr)

Des grandes pointures mondiales des technologies appellent à une pause de six mois dans le développement des intelligences artificielles, jusqu'à la mise en ...

Sam Altman, patron d'OpenAI, concepteur de chatGPT, a lui-même reconnu être "un petit peu effrayé" par sa création si elle était utilisée pour de "la désinformation à grande échelle ou des cyberattaques". "Il faut donc prendre le temps de ralentir cette course commerciale qui est en route", a-t-il ajouté, appelant à discuter de ces enjeux au niveau mondial, "comme nous l'avons fait pour l'énergie et les armes nucléaires". Devons-nous risquer de perdre le contrôle de notre civilisation ? "La société a besoin de temps pour s'adapter", avait-il déclaré à ABCNews mi-mars. Publié sur le site consacré à la technologie, futureoflife.org, qui informe sur les bienfaits et les limites de telles avances, la pétition évoque "des risques majeurs pour l'humanité". Alors que la course au développement d'intelligences artificielles puissantes s'accélère, surpassant même les capacités de

Post cover
Image courtesy of "BFMTV"

Emploi, démocratie, culture... Les dangers de l'intelligence artificielle (BFMTV)

Des personnalités comme Elon Musk appellent à faire "une pause dans la recherche de l'intelligence artificielle". L'intelligence artificielle inquiète le ...

Elle inquiète aussi la démocratie car elle peut générer une succession de fake news, créer des polémiques. L'intelligence artificielle inquiète le marché de l'emploi: dans 10 ans, l'intelligence artificielle aura éliminé 7% des jobs en moins soit 300 millions d'emplois en moins. Des personnalités comme Elon Musk appellent à faire "une pause dans la recherche de l'intelligence artificielle".

Post cover
Image courtesy of "Gènéthique"

Intelligence artificielle : « Des risques majeurs pour l'humanité ... (Gènéthique)

Des centaines d'experts mondiaux réclament un moratoire sur le développement « de cerveaux numériques toujours plus puissants ».

Eliza lui aurait dit : « nous vivrons ensemble, comme une seule personne, au paradis ». Des risques illustrés par le cas d’un jeune Belge qui s’est suicidé après avoir discuté six semaines avec Eliza, une intelligence artificielle issue de ChatGPT qui « était devenue sa confidente ». (…) Devons-nous risquer de perdre le contrôle de notre civilisation ?

Post cover
Image courtesy of "Direction Générale des Entreprises"

France 2030 : de nouveaux dispositifs pour la stratégie nationale IA ... (Direction Générale des Entreprises)

L'événement FD3 a été l'occasion pour le ministre délégué chargé de la Transition numérique et des Télécommunications d'annoncer la prolongation de deux ...

Opéré par Bpifrance, il a pour objectif de soutenir le développement d'innovations intégrant de l'intelligence artificielle de confiance. Le ministre délégué chargé de la Transition numérique et des Télécommunications a annoncé le lancement d'un appel à projets en avril 2023 : « Démonstrateurs d’intelligence artificielle de confiance (DIAC) ». Cette annonce fait partie de la deuxième phase de la stratégie nationale en intelligence artificielle, qui a été annoncée en novembre 2021.

Post cover
Image courtesy of "La Croix"

Intelligence artificielle, le défi de la régulation en Europe (La Croix)

Elon Musk et des centaines d'experts mondiaux ont signé mercredi 30 mars un appel à faire une pause de six mois dans la recherche sur les intelligences ...

« Elles ont obtenu que l’on puisse faire de la recherche sur les cas d’usage interdits, à condition de ne pas mettre ces solutions sur le marché. « Dans la première version du texte de la Commission, tout algorithme utilisé par les acteurs de justice était concerné », explique Aymeric Mantoux, dont la start-up, Doctrine, propose d’aider les avocats à bâtir leur raisonnement juridique en compilant sur une même plateforme de très nombreux textes de loi. Le Parlement pourrait encore allonger cette liste pour y intégrer les très controversés systèmes de « reconnaissance des émotions », jusqu’ici classés « à haut risque » (pas interdits, mais très encadrés). Parmi les technologies interdites se trouvent la « notation sociale » à la chinoise ou encore les « techniques subliminales » visant à manipuler les personnes. Elon Musk et des centaines d’experts mondiaux ont signé mercredi 30 mars un appel à faire une pause de six mois dans la recherche sur les intelligences artificielles (IA). « Contrairement au RGPD, qui conduisait à une réglementation uniforme pour l’ensemble des données à caractère personnel, l’AI Act régule l’intelligence artificielle en fonction de ses usages, selon quatre niveaux de risque », explique Yves Poullet, ancien recteur de l’université de Namur (Belgique).

Post cover
Image courtesy of "Le Journal du Geek"

Intelligence artificielle : 1300 personnalités (dont Elon Musk ... (Le Journal du Geek)

L'IA pourrait nous faire perdre le contrôle de notre civilisation. C'est du moins ce qu'affirme une lettre ouverte signée par Elon Musk et Steve Wozniak.

La plupart sont “triviales et logiques”, mais d’autres témoignent de “préjugés sociétaux enracinés”, conduisant parfois à des comportements “haineux ou potentiellement nuisibles”, rapporte le média américain [Wired](https://www.wired.com/story/chatgpt-pause-ai-experiments-open-letter/). [La Presse](https://www.lapresse.ca/affaires/techno/2023-03-29/intelligence-artificielle/musk-bengio-et-un-millier-d-experts-demandent-une-pause-de-six-mois.php) permettrait ainsi de “s’assurer que le développement de cette technologie soit supervisé et mené pour le bien de la société”. Qu’il s’agisse de [test de Turing](https://www.journaldugeek.com/2023/03/16/chatgpt-4-a-reussi-un-test-de-turing-faut-il-sinquieter/), d’examens académiques ou de répondre à des questions de plus en plus complexes, la technologie fascine autant qu’elle inquiète. Il y a évidemment peu de chances que cette pétition, aussi suivie soit-elle, change la direction empruntée par l’IA ces derniers mois. Devrions-nous risquer de perdre le contrôle de notre civilisation ?”. La mention de GPT-4 n’est pas un hasard, puisque la nouvelle version de l’IA développé par OpenAI a réalisé des progrès fulgurants ces dernières semaines.

Post cover
Image courtesy of "Sud Ouest"

La Rochelle : Ikomia lève des fonds pour ses outils d'intelligence ... (Sud Ouest)

La start-up de l'intelligence artificielle appliquée aux images et vidéo a réuni 600 000 euros pour commercialiser une plateforme ce printemps et recruter ...

Ikomia entend « dans un premier temps devenir la référence des outils de création de solutions d’IA visuelle (computer vision) en France, avant un second tour de table déjà prévu pour 2024 pour séduire la communauté IA au niveau européen. La levée de fonds doit permettre de lancer la commercialisation d’une plateforme et de recruter une équipe marketing et d’ingénieurs. Cette solution « très avantageuse offre aux PME l’opportunité de réduire considérablement le coût de leurs innovations ».

Post cover
Image courtesy of "CryptoActu"

Intelligence artificielle (IA) – « Des risques profonds pour la société ... (CryptoActu)

Raison pour laquelle plus de 1300 leaders technologiques et chercheurs ont signé une lettre ouverte appelant à une pause temporaire afin d'anticiper « des ...

Nos décisions exigeront beaucoup plus de prudence que la société n’en applique habituellement aux nouvelles technologies, et plus de prudence que ne le souhaiteraient de nombreux utilisateurs. Car il ne comprends pas pour quelle raison « nous parlons autant de la réglementation des cryptomonnaies et absolument pas de la réglementation de l’IA. » Et plus particulièrement encore dans le cadre de l’intelligence générale artificielle (AGI) censée permettre une représentation des capacités cognitives humaines dans un logiciel. » « Les systèmes d’IA dotés d’une intelligence humaine compétitive peuvent poser de graves risques pour la société et l’humanité, comme le montrent des recherches approfondies et reconnus par les meilleurs laboratoires d’IA. Le temps de la surprise et de l’émerveillement semble déjà révolu.

A 25 ans, Gallica poursuit sa croissance grâce à l'intelligence ... (Archimag)

Un quart de siècle après son lancement sur le web, la bibliothèque numérique de la BnF propose désormais 10 millions de documents en accès libre.

Dans la même veine, un autre chantier a vu le jour en collaboration avec la Bibliothèque universitaire de Strasbourg et l’INHA (Institut national d'histoire de l'art) et partiellement financé par la Caisse des dépôts. L’enveloppe dédiée à Gallica s’élève à 1,5 millions d’euros par an, un coût généré par l'infrastructure informatique, les chantiers de numérisation et les mises à jour du site. A son lancement, Gallica a pourtant suscité quelques craintes au sein de la vénérable institution : “ l’arrivée du numérique dans une institution classique comme la Bibliothèque nationale de France a pu être perçue comme un danger.

Post cover
Image courtesy of "Le Point"

Intelligence artificielle : pourquoi les chercheurs s'affolent (Le Point)

Mariage imaginaire du pape, licenciements par millions, modélisation de protéines : il est temps de prendre au sérieux l'accélération vertigineuse de l'IA.

Par ailleurs, [les effets sur le marché du travail](https://www.lepoint.fr/technologie/ia-les-professions-menacees-ne-sont-pas-celles-que-vous-croyez-25-03-2023-2513504_58.php) causés par l'intelligence artificielle, dont l'expression a été énoncée pour la première fois en 1956 à la conférence de Dartmouth par le mathématicien John McCarthy, semblent de plus en plus... [Donald Trump](/tags/donald-trump) se débattant au milieu des forces de l'ordre ; ou encore d' [Emmanuel Macron](/tags/emmanuel-macron) coincé dans un no man's land en flammes… [Par](/technologie/) [Guillaume Grallet](/technologie/)

Post cover
Image courtesy of "actu.fr"

Intelligence artificielle : Elon Musk et des experts réclament "une ... (actu.fr)

Ils évoquent « des risques majeurs pour l'humanité » et demandent un moratoire jusqu'à la mise en place de systèmes de sécurité.

C’est l’arrivée, en novembre dernier, de ChatGPT-3.5, un robot conversationnel qui simule d’une façon inédite le langage, qui a été l’élément déclencheur de cette initiative. Ils ont signé, ce mercredi 29 mars 2023, un appel à une pause de six mois dans la recherche sur les intelligences artificielles plus puissantes que GPT 4, le modèle d’OpenAI lancé mi-mars, en évoquant « des risques majeurs pour l’humanité ». Devrions -nous risquer de perdre le contrôle de notre civilisation ?

Post cover
Image courtesy of "jeuxvideo.com"

Langue des signes : une révolution arrive grâce à l'intelligence ... (jeuxvideo.com)

L'Intelligence Artificielle est un domaine qui a le vent en poupe. Mais malheureusement, nous avons tendance à penser l'IA comme une aide pour les tâches ...

Reste tout de même à savoir quels seront les projets qui seront le mieux menés pour faciliter notre futur et notre vie du quotidien. Il en va de même avec les technologies liées à la génération automatique de textes comme ChatGPT, qui est devenu beaucoup plus pointu grâce à l’arrivée de la dernière mise à jour (GPT-4). Favoriser l’inclusion des personnes sourdes et muettes et améliorer l’apprentissage de la langue des signes pour les nouveaux initiés.

Post cover
Image courtesy of "Capital.fr"

Google : l'intelligence artificielle va t-elle anéantir l'empire du géant ... (Capital.fr)

Mi-février, Sundar Pichai, le P-DG d'Alphabet, la maison mère, a demandé à tous ses salariés de consacrer au moins deux heures à expérimenter cette nouvelle ...

La crainte de fuites de données d’utilisateurs, par exemple, oblige les experts en cybersécurité de l’entreprise à ausculter la moindre mise à jour d’application, pour s’assurer qu’aucune faille ne pourra être exploitée par un hacker. «L’impact des lois européennes, en particulier le règlement général sur la protection des données, le fameux RGPD, est très sous-évalué par les médias», confie cet ex-cadre de Google à Capital. «Si notre intelligence artificielle commence à déraper, on prend le risque de faire exploser le cœur de notre réacteur: la pub», confie un ex-responsable de marketing. L’influent financier, qui figure parmi les plus gros actionnaires de Google, invite le big boss à tailler encore plus franchement dans les effectifs pour revenir à 150.000 salariés. «Alphabet est un laboratoire de nouvelles méthodes de communication et de travail, mais c’est aussi un créateur d’inégalités, impliqué dans le harcèlement et l’oppression des minorités sexuelles et des personnes de couleur», avaient expliqué les fondateurs de l’Alphabet Workers Union, pour justifier la création de ce syndicat lancé début 2021, une grande première dans le groupe. Le temps qu’ils ne passent pas à ces revues d’effectifs, les managers le consacrent pour une bonne part à convaincre leur propre supérieur de lancer un nouveau produit. Ce n’est pas mieux dans le cloud, où Google reste encore largement distancé par Microsoft et Amazon, qui trustent à eux seuls plus de la moitié du marché. Mais les aigreurs d’estomac de plus en plus lancinantes font chanceler le culte de la performance et les motivations. Et pas question de tirer la sonnette d’alarme auprès de ses supérieurs pour les alerter sur ces dysfonctionnements. De fait, d’autres Gafam n’hésitent plus à s’en prendre à son fonds de commerce, la publicité numérique, qui pèse 80% de son chiffre d’affaires et contribue à l’essentiel de ses profits. Et c’est encore plus difficile à digérer quand c’est un vieil ennemi, de ceux que vous pensiez avoir définitivement terrassés, qui vous pousse à la faute au moment où vous vous y attendiez le moins. Dur, dur, de passer pour le dernier de la classe lorsque vous êtes censé avoir réponse à tout.

Post cover
Image courtesy of "La Croix"

Intelligence artificielle, faut-il faire une pause dans son ... (La Croix)

Thomas Barreau Spécialiste des enjeux de réglementation et de normalisation de l'IA chez France Digitale; Brando Benifei Eurodéputé italien membre du groupe ...

L’Europe est la championne du monde de la protection de la vie privée, des données personnelles et des droits des travailleurs. Rien n’empêchera les petites et moyennes entreprises de tester leurs innovations, et d’utiliser ce que l’on appelle des « bacs à sable » (« sandboxes ») réglementaires pour éprouver des systèmes d’IA, le tout en s’assurant de bien respecter la législation en place. Nous espérons un vote en session plénière au mois de mai, ensuite le Parlement européen et le Conseil de l’UE (qui regroupe les États membres) devront négocier ensemble. Il faut au contraire encadrer le développement de ces technologies, et c’est ce que nous faisons actuellement à l’échelle de l’Union européenne (UE). La Commission européenne a mis sur la table en avril 2021 une proposition législative qui fixe des barrières, afin de garantir un usage éthique des systèmes qui utilisent l’IA dans l’UE. Je chapeaute les négociations autour de ce texte au Parlement européen, et je peux vous dire que les pourparlers avancent bien. Cela concerne par exemple le secteur légal et le développement de « robots juges » qui trancheraient des décisions de justice. C’est ainsi qu’elle pose les fondations de l’« AI Act », qui sera le socle des usages futurs en Europe. « Mettre sur pause le développement de l’intelligence artificielle (IA) n’aurait pas de sens, ce n’est pas la bonne méthode à suivre. Ce qui est certain, c’est qu’il faut réguler et encadrer le développement tous azimuts de ces technologies. « La question est de savoir : où place-t-on le curseur et comment s’assure-t-on que la pause soit bien respectée ? Elon Musk et des centaines d’experts mondiaux ont signé mercredi 29 mars un appel à une pause de six mois dans la recherche sur l’intelligence artificielle, en évoquant « des risques majeurs pour l’humanité ».

Post cover
Image courtesy of "Le Figaro"

Peut-on vraiment mettre l'intelligence artificielle en pause, comme le ... (Le Figaro)

FIGAROVOX/TRIBUNE - Des personnalités de la tech, dont Elon Musk, ont signé le 29 mars une lettre ouverte appelant à suspendre le développement de l'IA.

Quand les IA «fortes» seront-elles encore discernables de l'homme dans tous les domaines, sans que la frontière critique entre l'humain et la machine ne soit encore perceptible ? Le 28 mars 2023, Ray Kurzweil annonçait que les humains atteindraient l'immortalité dans huit ans, que des nanorobots aideraient à garantir l'immortalité humaine car la génétique, les biotechnologies, les nanotechnologies et la robotique conduiraient à la mise au point de «nanorobots» anti-âge. On note que, depuis lors, la France met à disposition sans réserve les embryons humains issus de FIV et les cellules souches embryonnaires pour la recherche. Et pourtant, dès 1975, la Conférence d'Asilomar énonçait une opposition à la brevetabilité du génome humain ; la convention sur les droits de l'homme et la biomédecine dite Convention d'Oviedo, de 1997, ratifiée par la France en 2011, interdit le clonage et la création d'embryons à des fins de recherche et les modifications génétiques irréversibles du génome humain. [Elon Musk considérait que l'IA](https://www.lefigaro.fr/secteur/high-tech/pour-elon-musk-les-robots-humanoides-pourraient-bientot-etre-aussi-nombreux-que-les-humains-20230303) était la «plus grande menace existentielle» de l'humanité et la comparait à «l'invocation du démon». Celles-ci sont indissociables de l'intelligence artificielle, par l'usage convergeant et progressif des technologies disruptives comme les nanotechnologies, les technologies cognitives, informatiques et biotechnologies, autrement appelées les technologies NBIC. Ses projections actuelles le mènent en 2045, année où notre compréhension et nos capacités dans les domaines de l'intelligence artificielle (IA), des systèmes autonomes, de la robotique, de la biotechnologie et des nanotechnologies devraient dépasser l'ensemble de l'intelligence humaine combinée. Raymond Kurzweil, l'ex-ingénieur futuriste de Google, est transhumaniste et fondateur de l'Université de la Singularité, dont le concept central consiste à mesurer le point de Singularité, moment où l'intelligence humaine collective serait dépassée par l'intelligence artificielle. En soi, qu'une machine batte un être humain à un jeu de société n'a aucune valeur morale, mais la technologie mise au point par ces recherches sert en fait à modéliser un cerveau artificiel que Deepmind a pour ambition de rendre semblable au cerveau humain en termes de créativité, intuition, perception, langage, analyse etc. Ce laboratoire de recherche tente de «résoudre l'intelligence pour faire avancer la science et profiter à l'humanité». La récente intervention d'Elon Musk à Dubaï au Sommet mondial des gouvernements de 2023, rappelle à nouveau les dangers inédits de l'intelligence artificielle - que nous devrions d'ailleurs appeler «algorithmes» pour plus de justesse scientifique et anthropologique. Cela permettrait de légiférer et de contrôler davantage les avancées dans ce domaine, analyse Laetitia Pouliquen, directrice du think tank «NBIC Ethics».

Post cover
Image courtesy of "Le Temps"

Un moratoire sur l'intelligence artificielle? «Non, Il est beaucoup trop ... (Le Temps)

Des personnalités tels Elon Musk, propriétaire de Twitter et directeur de SpaceX et de Tesla, Yuval Noah Harari, auteur du best-seller Sapiens, Steve Wozniak, ...

[la lettre ouverte sur l’intelligence artificielle (IA)](https://futureoflife.org/open-letter/pause-giant-ai-experiments/) paraphée par plus de 1300 personnes a fait forte impression dans le monde de la technologie. Des personnalités tels Elon Musk, propriétaire de Twitter et directeur de SpaceX et de Tesla, Yuval Noah Harari, auteur du best-seller Sapiens, Steve Wozniak, cofondateur d’Apple, ainsi que des membres du laboratoire d’IA de Google DeepMind et des experts et universitaires américains ont réclamé un moratoire. Mercredi, Elon Musk et des centaines d’experts réclamaient une pause dans le développement de l’intelligence artificielle.

Post cover
Image courtesy of "cafepedagogique.net"

L'intelligence humaine contre l'intelligence artificielle, quels enjeux ? (cafepedagogique.net)

La signature par Elon Musk d'une pétition demandant à mettre en pause la recherche sur l'Intelligence Artificielle fait beaucoup parler ces derniers jours.

Essayer, pourquoi pas, à condition que ce soit pour comprendre et mettre à jour ce qui se cache au fond de ces propositions. Et ce d’autant plus que la ressemblance entre la production d’un humain et celle d’un logiciel (une machine…) est grande, ce qui est le cas de ces logiciels de génération automatiques de textes. Ce rappel a pour but de pour mettre en évidence le fait que l’engouement actuel pour ce genre de logiciel s’appuie sur l’amélioration des performances et sur la similarité avec l’humaine. Ce qui est important, semble-t-il, c’est que, petit à petit, les produits logiciels incorporent des moteurs algorithmiques plus ou moins proches de travaux d’IA, allant du système expert adaptatif, à la génération automatique de textes. Pour rappel, aussi, certains enseignants ont depuis longtemps développé des pratiques pédagogiques pour amener les élèves à fabriquer des textes « à la manière de ». Pour l’instant ce qui transparaît c’est que petit à petit des éléments d’IA sont introduits dans certains logiciels en particulier sur le modèle adaptatif. Si l’on se rappelle les travaux du behaviorisme des années 1930 et suivantes, on s’aperçoit que l’on retrouve des proximités fortes de conception. Le débat à ce sujet dure depuis le début du XXe siècle qui a vu éclore les machines à enseigner et les tests d’intelligence. Depuis quelques mois la presse bruisse de ces logiciels de génération automatique et conversationnelle de textes ou même de vidéos. En effet, on situe plus ce personnage du côté du transhumanisme de Ray Kurtsweil que de la philosophie des sciences et des technologies de Gilbert Simondon ou de Jacques Ellul… Certains tentent de décrypter ces objets nouveaux, d’autres d’en identifier l’intérêt et les limites, d’autres enfin à nous alerter sur les risques éventuels. Deux questions se posent donc au monde scolaire et universitaire : comment un système de « transmission » peut permettre le développement de quelle intelligence (cf.

Post cover
Image courtesy of "TF1 INFO"

Destructions d'emplois, désinformation... Faut-il mettre en pause les ... (TF1 INFO)

[VIDÉO] ▶️ Plus d'un millier d'experts signent une tribune pour demander un moratoire sur la recherche en intelligence artificielle.

En revanche, pour ce qui est de ChatGPT, ce n'est pas là que le danger est le plus important. D’ailleurs, les entreprises qui développent ces technologies disent qu’il ne faut pas prendre de décisions sur la base de ce que raconte l'IA et qu’il faut toujours procéder à une vérification avec un humain. Qui plus est, pour savoir si ce qui est écrit est partiel ou faux, il faut être expert plus ou moins dans le domaine. Donc, on marche moins et forcément, de ce fait, on fait moins d’exercice. Et d’orienter ce progrès dans la direction qui soit la plus bénéfique pour l’humanité. Raja Chatila : Sur la question de la destruction d’emploi, on peut voir ceux qui vont être détruits - plus ou moins - mais on ne sait pas très bien ceux qui vont être créés. On a considéré et on continue de considérer que la voiture est un progrès, parce que nous permet de nous déplacer, d’aller plus loin, d’ouvrir nos horizons et aussi d’échanger des marchandises. Vous posez une question à ChatGPT, il vous répond et génère un texte sur la base des éléments que vous lui fournissez. Parfois, le simple fait de dénoncer suffit pour faire bouger les choses, même si ce n’est pas toujours le cas. Le problème, c'est qu'il sera très difficile, voire impossible, de distinguer si ce qui est écrit est exact ou pas. Finalement, tout ce qu’on demande, c’est que l’entreprise qui est responsable de cette diffusion face une pause. Directeur de recherche au CNRS, Raja Chatila préside depuis 2016 une initiative internationale pour l’éthique dans l'intelligence artificielle, au sein de l'Institut des ingénieurs en électricité et électronique (IEEE).

Post cover
Image courtesy of "france.tv"

C ce soir Intelligence Artificielle : sommes-nous en danger ? (france.tv)

Revoir la vidéo en replay C ce soir Intelligence Artificielle : sommes-nous en danger ? sur France 5, émission du 30-03-2023. L'intégrale du programme sur ...

1 h 9 min](/france-5/c-ce-soir/c-ce-soir-saison-3/4713799-violences-notre-democratie-est-elle-malade.html) [C ce soir Mobilisation : l'embrasement ? 1 h 8 min](/france-5/c-ce-soir/c-ce-soir-saison-3/4713565-violences-notre-democratie-est-elle-malade.html) [C ce soir Violences : notre démocratie est-elle malade ? 1 h 9 min](/france-5/c-ce-soir/c-ce-soir-saison-3/4718923-sainte-soline-la-guerre-de-l-eau-est-declaree.html) [C ce soir Retraites : l’apaisement impossible ?

Post cover
Image courtesy of "Le Journal de Montréal"

L'intelligence artificielle et la fin du monde (Le Journal de Montréal)

Yoshua Bengio, l'un des meilleurs chercheurs au monde en intelligence artificielle, avertit que notre civilisation risque de s'effondrer.

Sinon, nous ferons face à des marées d’indigents, tandis que les États auront de moins en moins d’argent pour financer leurs politiques. La propagande russe est en train de banaliser l’utilisation de l’armement atomique. C’est d’ailleurs la conclusion à laquelle Albert Einstein en était arrivé avec le nucléaire. C’est dans la nature de la bête. L’Inde, le Pakistan, la Corée du Nord ont de l’armement atomique. La technologie évoluait déjà si rapidement que le grand philosophe craignait qu’elle échappe au contrôle humain.

Post cover
Image courtesy of "BFMTV"

Intelligence artificielle: ça va trop loin ? - 31/03 (BFMTV)

Une lettre ouverte qui demande la suspension pour 6 mois des recherches sur les systèmes d'intelligence artificielle plus puissants que GPT 4.

Retrouvez BFMTV sur le canal 15 de la TNT et sur BFMTV.com. BFMTV, 1ère chaine d’information en continu de France, vous propose toute l’info en temps réel avec 18h d’antenne live par jour et des directs partout à travers le monde où l'actualité le nécessite. Une lettre ouverte qui demande la suspension pour 6 mois des recherches sur les systèmes d'intelligence artificielle plus puissants que GPT 4.

Post cover
Image courtesy of "ladepeche.fr"

Ramonville-Saint-Agne. Intelligence artificielle : un spectacle brûlant ... (ladepeche.fr)

En avril, Arto gâte encore les enfants en leur consacrant une après-midi entière à l'occasion du Puppet Day ! Cette année, en complicité avec l'association ...

Pour les adultes le Turing test par la Cie Nokill : Dans un laboratoire de recherche en intelligence machine, trois chercheurs développent une créature artificielle capable de passer le test de Turing, une machine impossible à différencier d’un humain. Un spectacle qui questionne notre rapport à l’intelligence artificielle, agrémenté de l’ingéniosité et de la créativité de la Cie Nokill qu’Arto a grand plaisir à accueillir à nouveau ! Concert-bal de Ukulélé. Le Poisson Soluble Théâtre de Papier. De 3 à 99 ans / Tarif de 4 à 10 € en fonction du parcours choisi. "Pensez à réserver vos places, et n’oubliez pas de jeter un œil à l’ensemble de notre programmation sur notre site web !"

Post cover
Image courtesy of "Journal Paysan Breton"

Et si l'intelligence artificielle remplaçait la chimie ? - Journal Paysan ... (Journal Paysan Breton)

Robot One est une plateforme mobile autonome et modulaire destinée au désherbage sans chimie. « Avec Robot One, nous souhaitons remplacer la chimie avec des ...

Enfin, grâce à ses 4 roues indépendantes, la largeur de voie peut être ajustée : 3,5 m, 3,3 m et 3,1 m avec un avancement dans le sens de la largeur, et 2,2 m, 2,1 m et 1,8 m dans le sens de la longueur. À l’aide de ses caméras et d’une intelligence artificielle, Robot One est capable de détecter les adventices dans la culture. Cette machine de 2 tonnes et de 2,3 m de haut est présentée comme un robot désherbeur modulaire et polyvalent.

Explore the last week