Selon ChatGPT...

Nom utilisé par le Collège Central des Témoins de Jéhovah.
Règles du forum
Les Témoins de Jéhovah utilisent généralement les instruments juridiques mis à la disposition des associations religieuses pour organiser leurs activités cultuelles. La société watchtower est une association à but non lucratif qui publie une grande partie des ouvrages diffusés par les Témoins de Jéhovah, notamment leurs magazines La Tour de garde et Réveillez-vous !. Elle sert également de représentante légale des Témoins de Jéhovah.
Répondre
ronronladouceur

[Religion] agnostique
Avatar du membre
[Religion] agnostique
Messages : 7019
Enregistré le : 21 déc.08, 15:43
Réponses : 1

Re: Selon ChatGPT...

Ecrit le 12 juin24, 04:08

Message par ronronladouceur »

keinlezard a écrit : 11 juin24, 21:11 Non seulement , ce qu'elle peut collecter mais en tant que machine statistique si elle rencontre 10 fois une aneries et 1 fois une information pertinente , elle répondra à coup sur une ânerie :(
Tu confrontes la machine et tu pourrais être surpris. D'ailleurs tu as le choix offert par la machine d'approfondir le sujet... J'ai souvent utilisé le mot ''contester cette information'' et tu trouves de l'info supplémentaire... Assez souvent on arrive à une nuance qui relativise le propos de départ, etc.

L'outil parfois interprète mal la question ou la demande d'info. Tu insistes ou corriges, et l'IA reconnaît l'erreur ou le manquement...
Pour une rédaction ? c'est pas beaucoup mieux et en plus sur des sujet bateau , ils commettent également des erreurs ...
On a obtenu du premier coup un très bon résultat en demandant à l'outil de rédiger une invitation à un party en incluant quelques éléments : coordonnées, horaire, humour, style à la fortune du pot, feux d'artifices, guimauves sur le feu, avec thème, etc.

Tout dépend, j'imagine...
Maintenant prenons la Bible .. que nous sortira le LLM ? simplement ce qu'il a ingurgité et qui était disponible ... s'il lit majoritairement une littérature
mooniste , il sortira des concept de la Secte Moon , s'il analyse principalement de la littérature Scientologue .. nous aurons alors une théologie de la Sciento
Bien sûr, mais tu peux demander à l'outil de poursuivre sur le même thème mais en comparant avec d'autres croyances... Un peu comme une conversation...

Note : L'outil mettra fin à la conversation assez rapidement. Mais alors tu peux changer d'IA, etc.
Donc il me semble qu'il faille être extrément prudent ..
Je suis bien d'accord... Il y a un modus vivendi, une connaissance de l'outil et de ses limites, qui vient avec la pratique...

Il y a même des thèmes ''chauds'' que l'IA refusera d'exploiter...

Tout n'est certainement pas tout négatif... Mais comme tu le dis, faut être extrêmement prudent...

Etc.

Chrétien

[ Aucun rang ]
Avatar du membre
[ Aucun rang ]
Messages : 6422
Enregistré le : 27 janv.15, 21:19
Réponses : 0

Re: Selon ChatGPT...

Ecrit le 15 juin24, 00:24

Message par Chrétien »

keinlezard a écrit : 11 juin24, 21:11 En même temps c'était un peu pour cela que l'on mets au point des LLMs il me semble.


Non seulement , ce qu'elle peut collecter mais en tant que machine statistique si elle rencontre 10 fois une aneries et 1 fois une information pertinente , elle répondra à coup sur une ânerie :(
Ce n'est pas comme cela que cela fonctionne. Il y a quand même un algorithme qui vérifie les informations... Faut pas non plus abuser. Quand je dis qu'il peut y avoir des erreurs de codes, il faut quand même être un programmeur pour s'en apercevoir...
Keinlézard a écrit :J'ai encore rarement vu une IA donner des références pertinente et encore plus rarement des références bibliographique digne de ce nom , peut être gemini dans le domaine scientifique mais même là il faut une expertise humaine en amont , sinon tu vas droit à la catastrophe :(
Tu n'as pas dû en faire beaucoup dans ce cas...

Keinlézard a écrit :une erreur de programmation n'est rien en comparaison d'une référence douteuse , voir inventée de toute piece par un LLMs ...
Les IA sur le net ne commettent pas ce genre d'erreurs. elles emettent des hypothèses, c'est tout.
Keinlézard a écrit :dans une erreur de programmation en général le programme ne produira pas le résultat souhaité et dans la majorité des cas il ne fonctionnera simplement pas ou ne sera pas compilable ... j'ai essaye en Rust , en shell , en Ada, en C , en SQL , en Fortran .... et à chaque fois il fallait reprendre le code derrière
Moi, je suis au C++, au php, et en ASP (plus rarement maintenant). Il génèrera un message d'erreur tout simplement. Quand au SQL, les erreurs de l'IA sont souvent liées aux mises à jour régulières dont l'IA n'a pas forcément connaissance à l'instant T.
Keinlézard a écrit :Alors imaginons sur un sujet plus "sérieux" comme un empoissonnement , une formule chimique pour une réaction de cours avec par exemple acide nitrique , acide sulfurique et Toluène ... ( pour produire l'arome de banane par exemple ) ... perso je ne m'y risquerais pas ... :)
Parce que tu crois que, pour une formule scientifique , il serait raisonnable de laisser l'IA réaliser la formule ? Il faut être équilibré et raisonnable quand même. On en peut pas tout donner à une IA !
Keinlézard a écrit :Pour une rédaction ? c'est pas beaucoup mieux et en plus sur des sujet bateau , ils commettent également des erreurs ...
Pour résumer, l'IA a été créée par des humains imparfaits. Tu crois qu'elle peut faire des choses parfaites ? Non...
"Quand on veut, on peut. Et quand on peut, on doit." - Napoléon Bonaparte.
"La religion pure et sans tache, devant Dieu notre Père, consiste à visiter les orphelins et les veuves dans leurs afflictions, et à se préserver des souillures du monde." - Jacques 1:27

Site web: etre-chretien

keinlezard

[ Aucun rang ]
Avatar du membre
[ Aucun rang ]
Messages : 8097
Enregistré le : 07 oct.12, 21:08
Réponses : 0
Localisation : FRANCE

Re: Selon ChatGPT...

Ecrit le 16 juin24, 21:15

Message par keinlezard »

Hello,
Chrétien a écrit : 15 juin24, 00:24 Ce n'est pas comme cela que cela fonctionne. Il y a quand même un algorithme qui vérifie les informations... Faut pas non plus abuser. Quand je dis qu'il peut y avoir des erreurs de codes, il faut quand même être un programmeur pour s'en apercevoir...
Lesquels ?
Il ne passe pas une semaine ou un mois sans que les grandes entreprises de la tech soient obligées à posteriori de limiter leur IA à cause de leur dérives.

Si les spécialistes en IA contrôle à posteriori c'est donc qu'il n'y a pas de garde-fou pendant l'apprentissage.

Les exemples malheureux de Microsoft ( mais pas que ) avec leurs agents conversationnels devant un vrai petit nazillon en l'espace d'un WE laisse pensif sur les fameux "contrôles"

Quand aux controles à priori Aurélie Jean dans "Les algorithmes font-ils la loi" relate l'expérience à la "minority report" dans la police américaines dans certain états

L'apprentissage de l'IA fait sur les données à viré au fiasco ... en effet la machine étaient nourrie avec les crimes déjà connu, élucidé ... donc dans un premier temps tout semblait fonctionner pour le mieux ... la police semblait "plus" efficace ... jusqu'à ce que ... le modèle foire complètement ...

Pourquoi foire t il ?

Simple et logique un enfant de primaire le comprend immédiatement ... mais pas un spécialiste pas un policier pas un ingénieur dans le projet ne l'a vu !

La machine est nourrie avec les crimes connu .. or est évident que sur les vols à l'arraché , les points de deal , les zones non "sécure" ( désolé pour l'anglicisme )
la machine avec ses données et son apprentissage visait les lieux et quartier qu'on lui avait appris à reconnaitre ...

Or un humain n'est pas une machine .... les zones de crimes ont migrées tout bêtement ... résultat des courses la police sécurisait des zones où plus rien ne se passaient sur les conseille d'un IA !!!

A quel endroit de l'apprentissage la machines ou l'algorithme se corrigeait , Alors même que l'humain n'y avait pas pensé ?
Chrétien a écrit : 15 juin24, 00:24 Tu n'as pas dû en faire beaucoup dans ce cas...

Suffisament dans mon taf , curieux comme pour toutes les nouveautés et suffisamment pour m'en faire une idée assez précises.

Dans les modèles les "plus pertinent" j'utilise Alphafold3 , qui est un système hyper spécialisé de repliement de protéine et pas un chercheur l'utilisant n'irait faire confiance aveuglément à une résultat d'Alphafold3 ... bien au contraire , l'outils sera utilisé comme tamis pour filtrer les "possibles" mais jamais pour donner la "solution" indiscutable.

Alors sur un modèle générique, il faut d'autant plus être prudent ...


Chrétien a écrit : 15 juin24, 00:24 Les IA sur le net ne commettent pas ce genre d'erreurs. elles emettent des hypothèses, c'est tout.
Non pas.

C'est un modèle statistique uniquement et seulement. Pour émettre une hypothèse, il faudrait avoir la connaissance consciente du problème.
Or l'IA ne comprend pas ce quelle analyse. Il n'y a ni conscience , ni intélligence , ce n'est qu'une analyse statistique sur des "Big Data" rien d'autre


Chrétien a écrit : 15 juin24, 00:24 Moi, je suis au C++, au php, et en ASP (plus rarement maintenant). Il génèrera un message d'erreur tout simplement. Quand au SQL, les erreurs de l'IA sont souvent liées aux mises à jour régulières dont l'IA n'a pas forcément connaissance à l'instant T.
Donc, le code n'est pas utilisable tel que sans l'intervention du spécialiste humain.

Et ici au niveau code nous sommes dans la logique pure !

Dans les trucs que j'ai déjà demandé à ChatGPT c'était de récrire ( même pas de comprendre ou d'interpréter ) le code spaghetti fortran d'un bout de programme provenant de Crystal (https://www.crystal.unito.it/)

Un truc avec des "goto 30" des "if (energy.lq.correct) 12, 20, 16"

au bout de 3 itérations , malgré les corrections que j'apportais à chaque fois , il n'a pas été en mesure de me fournir un code fonctionnel.

Alors que ce type de modif est sommes toute trivial ... puisqu'il suffit de développer le code , puis de le refactoriser


Ainsi donc sur des choses "simple" et quasi fixée dans le marbre ... on devrait dire silicium , les LLMs sont à la peine.
Sur une chose qui bouge en permanence "l'expérience humaine" , la "société" , "les idées" comment et par quel miracle serait il possible que les IA soient pertinente sans expertises humaine à posteriori ?



Chrétien a écrit : 15 juin24, 00:24 Parce que tu crois que, pour une formule scientifique , il serait raisonnable de laisser l'IA réaliser la formule ? Il faut être équilibré et raisonnable quand même. On en peut pas tout donner à une IA !
C'est de la chimie de base que l'on fait en terminal ( au moins à mon époque ) les source et formule de poisons sont accessibles librement sur le WEB
et si tu fais un peu de botanique reconnaître une datura ou la grande ciguë c'est trivial ... dans n'importe quel jardin tu trouve du laurier rose , les 1er Mai
le poison est même vendu ( muguet )

Le fait est que les LLMs généralistes sont à la peine simplement et que leur analyse reste assez pauvre au final

AMHA cela ne sera qu'un effet de mode dans le grand public et l'attrait de la nouveauté s'émoussera.
Dans le domaine professionnel , un certain nombre d'avancée avec des LLMs spécialisé sont par contre à attendre


Chrétien a écrit : 15 juin24, 00:24 Pour résumer, l'IA a été créée par des humains imparfaits. Tu crois qu'elle peut faire des choses parfaites ? Non...
Il n'est pas question de cela pour moi.

L'homme n'est pas imparfait , il est adapté à un environnement ( D'ailleurs que serait un homme "parfait" ? )
Son cerveau qui a évolué pendant des millions d'année pour la survie , plus il réagit dans une certaine forme d’excès , plus il a de chance
de survie , car il faut mieux avoir peur pour rien , que ne pas avoir peur et mourir :)
Voir : "Quand est ce qu'on biaise" de Thomas C. Durand , "La force de nos Bugs" de Sebastian Dieguez pour les références les plus récentes

L'IA n'a à priori pas ces biais. Et est nourrie de données stockées. Si l'IA n'est pas "digne de confiance" à cause de biais. Il faut ici viser les opérateurs
humains uniquement ... voir par exemple la dernière trouvaille de l'IA sur la femme parfaite

https://www.lemonde.fr/idees/article/20 ... _3232.html

Ici nous avons donc un biais supplémentaire la perfection est "à peau claire" !!!

L'IA nourrie par les stéréotype qu'elle trouve sur internet et dans les représentation de la beauté que lui fournissent des opérateur humain décide donc , puisque ce n'est qu'une machine statistique , que la beauté est ainsi !

Ici à nouveau ( l'article est de juin 2024 ) où est donc la correction que tu nous expose dans tes premières phrases ?
Chrétien a écrit : 15 juin24, 00:24 Ce n'est pas comme cela que cela fonctionne. Il y a quand même un algorithme qui vérifie les informations... Faut pas non plus abuser. Quand je dis qu'il peut y avoir des erreurs de codes, il faut quand même être un programmeur pour s'en apercevoir...
Il n'y a pas de correction ... 1.6 milliard d'humain sont en Inde , un autre 1.5 milliard sont Asiatique , un autre grosse partie 1.4 milliard sont de type africains
Puis nous avons les mélanésien , les population Sud Américaines, ... bref la beauté made by IA ... et tellement éloigné de la réalité humaine la plus prosaïque
et terre à terre qu'on est en droit de ce demander où elle a été pécher les informations ? Et quid des opérateurs humains ?


Comprenons nous , je ne nie pas l’intérêt de l'IA , je l'utilise , mais l'IA généraliste , générative , n'est qu'un outils parmi d'autre.
Et c'est un outils statistiques , qui doit être utilisé comme un outils , jamais il ne viendra à l'idée de personne de demander à sa perceuse , sa pelle ou son marteau
de ranger la vaisselle et de faire le ménage ... encore moins de garder la maison et d'éduquer les enfants.

les LLMs doivent absolument rester ce qu'ils sont "des outils" et ne pas être vu ni utilisé comme des succédané de l'esprit humain et de son analyse

Si on substitue le sens critique par les réponses de l'IA nous allons alors à la catastrophe


Cordialement
Cordialement
Adopter les règles de Crocker autorise vos interlocuteurs à optimiser leur message pour le transfert d'informations sans se préoccuper d'amabilités. Elles imposent que vous acceptiez l'entière responsabilité du fonctionnement de votre esprit – si on vous offense, c'est de votre faute.
https://fr.wikipedia.org/wiki/Lee_Daniel_Crocker

Chrétien

[ Aucun rang ]
Avatar du membre
[ Aucun rang ]
Messages : 6422
Enregistré le : 27 janv.15, 21:19
Réponses : 0

Re: Selon ChatGPT...

Ecrit le 16 juin24, 22:40

Message par Chrétien »

Je comprends ce que tu dis et je l'entends.

Il faut prendre l'IA comme un assistant et non comme une référence et tu as raison.

Il n'empêche que l'IA apporte des idées que nous n'aurions pas. Il aborde chaque conversations de manière très générale. Cela peut être utile, mais une IA ne remplacera jamais l'homme.

Dans le cadre de mon code, je lui ai demandé de créer u système de sondage en PHP en fonction de l'âge de la personne.

ChatGPT s'était mélangé les pinceaux dans les if...else. il n'arrivait pas à gérer les if... else avec les bonnes fonctions (construct).

J'ai dû moi-même rétablir les priorités dans le code.
"Quand on veut, on peut. Et quand on peut, on doit." - Napoléon Bonaparte.
"La religion pure et sans tache, devant Dieu notre Père, consiste à visiter les orphelins et les veuves dans leurs afflictions, et à se préserver des souillures du monde." - Jacques 1:27

Site web: etre-chretien

Répondre
  • Sujets similaires
    Réponses
    Vues
    Dernier message

Retourner vers « Watchtower »

Qui est en ligne

Utilisateurs parcourant ce forum : Amazon [Bot], Majestic et 8 invités