-
25Réponses
-
2.3000Affichages
Derniers posts du forum
Si j’ai bien compris la question de départ Sylvie demande si elle doit informer les personnes pour lesquelles elle est spectatrice.
Mon avis : il ne faut pas informer. Chaque adulte est responsable de ce qu’il fait.
C’est vrai que le titre donne envie d’élargir le sujet.
Celui qui écrit doit il informer ? Contrairement à la question de base qui repose sur la volonté personnelle de celui qui se pose la question. La question élargie repose sur le bon vouloir de celui qui utilise l’IA.
C’est peut être cette différence qui fait que Sylvie a délimitée la question à elle même.
C’est assez difficile de voir les autres se faire duper sous nos yeux sans intervenir. Mais chacun doit faire ses propres erreurs pour se développer. Ce n’est pas se rendre service de voler au secours sur tous les sujets.
C’est assez proche des arnaques sentimentales et escroqueries. Ca fait mal de voir les gens se faire avoir. Mais c’est tellement gros qu’il y a quand même une forme de consentement.
Le mensonge prend l’ascenseur et la vérité l’escalier.
Aucun problème, je ne l'ai pas pris personnellement. Ma réponse, y compris la dernière était générale, même si je m'y associe en tant qu'individualité. De manière générale, le problème n'est ni la personne qui n'est pas au courant qu'elle lit de l'IA, ni son égo.
Certes, mais il y en a d'autres qui veulent savoir. Dont moi (pardon), dont d'autres par exemple, qui se sont manifestés ici en donnant leur avis qui indiquait qu'il leur était important de savoir.
Il y a donc les deux. Comment faire la différence ? Je ne vois qu'une solution : annoncer honnêtement la couleur.
"- Ça te va si je corresponds avec toi avec une IA ?"
"- Pas de problème, j'adooore ça !"
Ou encore :
" * Ce texte a été généré avec chatGPT."
Je ne vois pas le problème pour une personne qui n'a pas l'intention de dissimuler quoi que ce soit.
Le prompt est rarement fourni. En tout cas, moi, je n'ai jamais vu personne qui l'affichât avec le résultat…
Et s'il l'était, le problème serait résolu de fait, puisqu'il s'agirait alors de l'indication explicite que le résultat a été produit par IA.
D'expérience, au vu de l'utilisation des IA génératives que j'observe en général, le principe du résultat généré par IA et repris ensuite de manière significative par l'humain qui a interrogé l'IA est illusoire.
Tout simplement parce que cela demande au moins autant d'effort. Et en réalité très souvent bien davantage. En fait, il faut presque tout vérifier.
Mais bon… cas d'école, pour vous, je veux bien admettre la situation théorique.
Déjà, je ne crois pas du tout au cas de l'utilisateur qui interrogerait une IA pour finalement n'en rien garder de significatif. Sinon, autant s'en passer.
C'est donc que le résultat final restera significativement imprégné du produit de l'IA et de sa créativité simulée. Eh bien, oui, pour moi il est important de le préciser.
D'un point de vue strictement technique, oui, mais ce n'est pas la question.
Si son utilisateur partage ce point de vue, je vois d'autant moins ce qui pourrait lui poser problème de préciser ce détail tout à la fois sans importance et révélateur d'une compétence humaine toute à son avantage.
Alors j'ai l'impression que notre divergence se résumera bientôt à la proportion d'utilisateurs d'IA concernés par de simples copiés/collés. Encore une fois, à partir de ce que j'en vois dans d'autres domaines d'utilisation avec une équivalente tragédie, je les estime pour ma part à 100% avec une marge d'erreur strictement égale à 0.
On peut partir du principe que c'est à la personne trompée de se débrouiller pour ne pas se faire avoir. C'est une sorte de darwinisme social avec lequel je n'ai pas d'affinité particulière. Son problème repose sur son principe. Certes, mais jusqu'où le faible sera-t-il considéré comme une victime légitime s'il n'a pas su se défendre ?
C'est une façon de voir le monde et les rapports humains.
Sinon, on peut procéder autrement. Il y a essentiellement deux manières de faire.
1. Par un savoir vivre partagé qui rend évidentes des règles communes de bonne conduite. On dit "bonjour", on dit "merci", on ne fauche pas le porte-feuille qu'on a "trouvé" dans la rue parce qu'il vient de tomber du sac de la mamie… et quand on utilise une IA pour rédiger sa fiche de présentation ou son article sur bdsm.fr, on le précise.
2. Par la contrainte légale.
Je préfère la première façon de procéder qui me semble tellement évidente… Mais bon.
Comme je disais, je préfère le savoir-vivre partagé.
La solution législative n'a pas ma préférence. Je serais prêt à la discuter sur le principe. Mais à tout prendre, je préfère les abus d'individus qui ne respectent pas des règles implicites de savoir vivre à un encadrement juridique à mon avis impossible à définir de manière rigoureuse et dont les excès pourraient être pires que le problème qu'il prétendrait résoudre.
Donc au risque de me répéter, la solution législative existe en théorie, mais ce n'est pas du tout ce que je défends ni ce dont je rêve.
La quantité n'excuse pas la tromperie, bien au contraire.
S'il s'agissait d'un unique cas sur internet… à la limite, peu m'importerait qu'il soit ou non explicitement signalé le produit d'une IA.
Le problème prend justement forme lorsque ces contenus se répandent et se mélangent sans distinction avec des créations humaines. C'est alors qu'il devient important de les signaler pour éviter la confusion.
Dans le doute je prefere le préciser, mais le vous n'étais pas personnel.
On ne précise pas quelque-chose dont l'auteur juge qu'elle n'est pas à communiquer. Il n'existerait pas autant de fausses informations, de pseudos sciences, etc sinon. Pourtant des centaines de millions de gens en sont victimes sans être informé et biaisé dans leurs façon d'appréhender cela.
Pourtant force est de constater que beaucoup de gens aiment ça et qu'ils ne veulent pas savoir la vérité tant que ça va dans leurs sens, leurs idéologie. Pourquoi en serait il différent dans ce cas présent ?
Après vous semblez résumer une interaction avec quelqu'un qui utilise l'IA à un simple copié coller. Mais il y a des prompts qui rentre en jeu. Parfois l'interlocuteur (enfin j'imagine) doit échanger pas mal avec une IA, voir retravaille sa réponse avant de la communiquer.
Elle ne reste qu'un outil qui est parfois utilisé avec plus ou moins de succès. Et en soit savoir utiliser un outil n'est ce pas une compétence humaine ?
Après en soit si ça se résume à de simples copier coller je suis plutôt d'accord. Mais dans le monde où nous vivons aujourd'hui je pense qu'il relève plus de la responsabilité personnelle d'arriver à différencier un interlocuteur de contenu entièrement généré par IA avec peu de travail. Que du rêve de l'obligation de la mention IA. N'oublions pas qu'aujourdhui que bien plus de contenus ( que ce soit des articles, des vidéos sur les réseaux, de musiques, etc ) sont généré par IA que directement par l'homme. Et ce n'est que le "début"
Je me souviens d'un sujet d'il y a treize ans (j'avais alors un autre compte) initié par un membre éminent de ce site.
https://www.bdsm.fr/forum/thread/729/La-v%C3%A9rit%C3%A9-sur-l'intelligence/
On entendait alors par "intelligence" une adaptation à l'altérité. C'est à dire une intelligence humaine, si ce n'est naturelle.
En ce sens, l'intelligence artificielle ne presente aucun rapport avec l'intelligence. Elle n'est qu'artifice et n'a rien d'intelligent (on a plus haut indiqué la transposition abusive du terme anglais). Elle n'est pas destinée à tisser du lien entre deux êtres, mais de substituer une machine à l'être au bout du lien.
Et le lien ne relie plus rien.
Au mieux, il relie deux dupes dont qui font chacun écrire de leur côté le même chatGPT et s'envoient leurs mutuels copiés/collés. S'ils sont au courant tous les deux, je m'interroge. Si un seul l'est, je m'amuse : tant pis pour l'autre.
Mais au pire, si l'un écrit sincèrement et se dévoile alors que l'autre ne lui envoie qu'un masque qu'il ne prend pas la peine d'écrire ni d'imprégner de lui-même, alors je me désole.


