Hello,
Chrétien a écrit : ↑15 juin24, 00:24
Ce n'est pas comme cela que cela fonctionne. Il y a quand même un algorithme qui vérifie les informations... Faut pas non plus abuser. Quand je dis qu'il peut y avoir des erreurs de codes, il faut quand même être un programmeur pour s'en apercevoir...
Lesquels ?
Il ne passe pas une semaine ou un mois sans que les grandes entreprises de la tech soient obligées à posteriori de limiter leur IA à cause de leur dérives.
Si les spécialistes en IA contrôle à posteriori c'est donc qu'il n'y a pas de garde-fou pendant l'apprentissage.
Les exemples malheureux de Microsoft ( mais pas que ) avec leurs agents conversationnels devant un vrai petit nazillon en l'espace d'un WE laisse pensif sur les fameux "contrôles"
Quand aux controles à priori Aurélie Jean dans "Les algorithmes font-ils la loi" relate l'expérience à la "minority report" dans la police américaines dans certain états
L'apprentissage de l'IA fait sur les données à viré au fiasco ... en effet la machine étaient nourrie avec les crimes déjà connu, élucidé ... donc dans un premier temps tout semblait fonctionner pour le mieux ... la police semblait "plus" efficace ... jusqu'à ce que ... le modèle foire complètement ...
Pourquoi foire t il ?
Simple et logique un enfant de primaire le comprend immédiatement ... mais pas un spécialiste pas un policier pas un ingénieur dans le projet ne l'a vu !
La machine est nourrie avec les crimes connu .. or est évident que sur les vols à l'arraché , les points de deal , les zones non "sécure" ( désolé pour l'anglicisme )
la machine avec ses données et son apprentissage visait les lieux et quartier qu'on lui avait appris à reconnaitre ...
Or un humain n'est pas une machine .... les zones de crimes ont migrées tout bêtement ... résultat des courses la police sécurisait des zones où plus rien ne se passaient sur les conseille d'un IA !!!
A quel endroit de l'apprentissage la machines ou l'algorithme se corrigeait , Alors même que l'humain n'y avait pas pensé ?
Chrétien a écrit : ↑15 juin24, 00:24
Tu n'as pas dû en faire beaucoup dans ce cas...
Suffisament dans mon taf , curieux comme pour toutes les nouveautés et suffisamment pour m'en faire une idée assez précises.
Dans les modèles les "plus pertinent" j'utilise Alphafold3 , qui est un système hyper spécialisé de repliement de protéine et pas un chercheur l'utilisant n'irait faire confiance aveuglément à une résultat d'Alphafold3 ... bien au contraire , l'outils sera utilisé comme tamis pour filtrer les "possibles" mais jamais pour donner la "solution" indiscutable.
Alors sur un modèle générique, il faut d'autant plus être prudent ...
Chrétien a écrit : ↑15 juin24, 00:24
Les IA sur le net ne commettent pas ce genre d'erreurs. elles emettent des hypothèses, c'est tout.
Non pas.
C'est un modèle statistique uniquement et seulement. Pour émettre une hypothèse, il faudrait avoir la connaissance consciente du problème.
Or l'IA ne comprend pas ce quelle analyse. Il n'y a ni conscience , ni intélligence , ce n'est qu'une analyse statistique sur des "Big Data" rien d'autre
Chrétien a écrit : ↑15 juin24, 00:24
Moi, je suis au C++, au php, et en ASP (plus rarement maintenant). Il génèrera un message d'erreur tout simplement. Quand au SQL, les erreurs de l'IA sont souvent liées aux mises à jour régulières dont l'IA n'a pas forcément connaissance à l'instant T.
Donc, le code n'est pas utilisable tel que sans l'intervention du spécialiste humain.
Et ici au niveau code nous sommes dans la logique pure !
Dans les trucs que j'ai déjà demandé à ChatGPT c'était de récrire ( même pas de comprendre ou d'interpréter ) le code spaghetti fortran d'un bout de programme provenant de Crystal (
https://www.crystal.unito.it/)
Un truc avec des "goto 30" des "if (energy.lq.correct) 12, 20, 16"
au bout de 3 itérations , malgré les corrections que j'apportais à chaque fois , il n'a pas été en mesure de me fournir un code fonctionnel.
Alors que ce type de modif est sommes toute trivial ... puisqu'il suffit de développer le code , puis de le refactoriser
Ainsi donc sur des choses "simple" et quasi fixée dans le marbre ... on devrait dire silicium , les LLMs sont à la peine.
Sur une chose qui bouge en permanence "l'expérience humaine" , la "société" , "les idées" comment et par quel miracle serait il possible que les IA soient pertinente sans expertises humaine à posteriori ?
Chrétien a écrit : ↑15 juin24, 00:24
Parce que tu crois que, pour une formule scientifique , il serait raisonnable de laisser l'IA réaliser la formule ? Il faut être équilibré et raisonnable quand même. On en peut pas tout donner à une IA !
C'est de la chimie de base que l'on fait en terminal ( au moins à mon époque ) les source et formule de poisons sont accessibles librement sur le WEB
et si tu fais un peu de botanique reconnaître une datura ou la grande ciguë c'est trivial ... dans n'importe quel jardin tu trouve du laurier rose , les 1er Mai
le poison est même vendu ( muguet )
Le fait est que les LLMs généralistes sont à la peine simplement et que leur analyse reste assez pauvre au final
AMHA cela ne sera qu'un effet de mode dans le grand public et l'attrait de la nouveauté s'émoussera.
Dans le domaine professionnel , un certain nombre d'avancée avec des LLMs spécialisé sont par contre à attendre
Chrétien a écrit : ↑15 juin24, 00:24
Pour résumer, l'IA a été créée par des humains imparfaits. Tu crois qu'elle peut faire des choses parfaites ? Non...
Il n'est pas question de cela pour moi.
L'homme n'est pas imparfait , il est adapté à un environnement ( D'ailleurs que serait un homme "parfait" ? )
Son cerveau qui a évolué pendant des millions d'année pour la survie , plus il réagit dans une certaine forme d’excès , plus il a de chance
de survie , car il faut mieux avoir peur pour rien , que ne pas avoir peur et mourir
Voir : "Quand est ce qu'on biaise" de Thomas C. Durand , "La force de nos Bugs" de Sebastian Dieguez pour les références les plus récentes
L'IA n'a à priori pas ces biais. Et est nourrie de données stockées. Si l'IA n'est pas "digne de confiance" à cause de biais. Il faut ici viser les opérateurs
humains uniquement ... voir par exemple la dernière trouvaille de l'IA sur la femme parfaite
https://www.lemonde.fr/idees/article/20 ... _3232.html
Ici nous avons donc un biais supplémentaire la perfection est "à peau claire" !!!
L'IA nourrie par les stéréotype qu'elle trouve sur internet et dans les représentation de la beauté que lui fournissent des opérateur humain décide donc , puisque ce n'est qu'une machine statistique , que la beauté est ainsi !
Ici à nouveau ( l'article est de juin 2024 ) où est donc la correction que tu nous expose dans tes premières phrases ?
Chrétien a écrit : ↑15 juin24, 00:24
Ce n'est pas comme cela que cela fonctionne. Il y a quand même un algorithme qui vérifie les informations... Faut pas non plus abuser. Quand je dis qu'il peut y avoir des erreurs de codes, il faut quand même être un programmeur pour s'en apercevoir...
Il n'y a pas de correction ... 1.6 milliard d'humain sont en Inde , un autre 1.5 milliard sont Asiatique , un autre grosse partie 1.4 milliard sont de type africains
Puis nous avons les mélanésien , les population Sud Américaines, ... bref la beauté made by IA ... et tellement éloigné de la réalité humaine la plus prosaïque
et terre à terre qu'on est en droit de ce demander où elle a été pécher les informations ? Et quid des opérateurs humains ?
Comprenons nous , je ne nie pas l’intérêt de l'IA , je l'utilise , mais l'IA généraliste , générative , n'est qu'un outils parmi d'autre.
Et c'est un outils statistiques , qui doit être utilisé comme un outils , jamais il ne viendra à l'idée de personne de demander à sa perceuse , sa pelle ou son marteau
de ranger la vaisselle et de faire le ménage ... encore moins de garder la maison et d'éduquer les enfants.
les LLMs doivent absolument rester ce qu'ils sont "des outils" et ne pas être vu ni utilisé comme des succédané de l'esprit humain et de son analyse
Si on substitue le sens critique par les réponses de l'IA nous allons alors à la catastrophe
Cordialement
Cordialement