-
4Réponses
-
814Affichages
Sujets
-
7Réponses
-
1.8000Affichages
-
2Réponses
-
510Affichages
Derniers posts du forum
Aucun problème, je ne l'ai pas pris personnellement. Ma réponse, y compris la dernière était générale, même si je m'y associe en tant qu'individualité. De manière générale, le problème n'est ni la personne qui n'est pas au courant qu'elle lit de l'IA, ni son égo.
Certes, mais il y en a d'autres qui veulent savoir. Dont moi (pardon), dont d'autres par exemple, qui se sont manifestés ici en donnant leur avis qui indiquait qu'il leur était important de savoir.
Il y a donc les deux. Comment faire la différence ? Je ne vois qu'une solution : annoncer honnêtement la couleur.
"- Ça te va si je corresponds avec toi avec une IA ?"
"- Pas de problème, j'adooore ça !"
Ou encore :
" * Ce texte a été généré avec chatGPT."
Je ne vois pas le problème pour une personne qui n'a pas l'intention de dissimuler quoi que ce soit.
Le prompt est rarement fourni. En tout cas, moi, je n'ai jamais vu personne qui l'affichât avec le résultat…
Et s'il l'était, le problème serait résolu de fait, puisqu'il s'agirait alors de l'indication explicite que le résultat a été produit par IA.
D'expérience, au vu de l'utilisation des IA génératives que j'observe en général, le principe du résultat généré par IA et repris ensuite de manière significative par l'humain qui a interrogé l'IA est illusoire.
Tout simplement parce que cela demande au moins autant d'effort. Et en réalité très souvent bien davantage. En fait, il faut presque tout vérifier.
Mais bon… cas d'école, pour vous, je veux bien admettre la situation théorique.
Déjà, je ne crois pas du tout au cas de l'utilisateur qui interrogerait une IA pour finalement n'en rien garder de significatif. Sinon, autant s'en passer.
C'est donc que le résultat final restera significativement imprégné du produit de l'IA et de sa créativité simulée. Eh bien, oui, pour moi il est important de le préciser.
D'un point de vue strictement technique, oui, mais ce n'est pas la question.
Si son utilisateur partage ce point de vue, je vois d'autant moins ce qui pourrait lui poser problème de préciser ce détail tout à la fois sans importance et révélateur d'une compétence humaine toute à son avantage.
Alors j'ai l'impression que notre divergence se résumera bientôt à la proportion d'utilisateurs d'IA concernés par de simples copiés/collés. Encore une fois, à partir de ce que j'en vois dans d'autres domaines d'utilisation avec une équivalente tragédie, je les estime pour ma part à 100% avec une marge d'erreur strictement égale à 0.
On peut partir du principe que c'est à la personne trompée de se débrouiller pour ne pas se faire avoir. C'est une sorte de darwinisme social avec lequel je n'ai pas d'affinité particulière. Son problème repose sur son principe. Certes, mais jusqu'où le faible sera-t-il considéré comme une victime légitime s'il n'a pas su se défendre ?
C'est une façon de voir le monde et les rapports humains.
Sinon, on peut procéder autrement. Il y a essentiellement deux manières de faire.
1. Par un savoir vivre partagé qui rend évidentes des règles communes de bonne conduite. On dit "bonjour", on dit "merci", on ne fauche pas le porte-feuille qu'on a "trouvé" dans la rue parce qu'il vient de tomber du sac de la mamie… et quand on utilise une IA pour rédiger sa fiche de présentation ou son article sur bdsm.fr, on le précise.
2. Par la contrainte légale.
Je préfère la première façon de procéder qui me semble tellement évidente… Mais bon.
Comme je disais, je préfère le savoir-vivre partagé.
La solution législative n'a pas ma préférence. Je serais prêt à la discuter sur le principe. Mais à tout prendre, je préfère les abus d'individus qui ne respectent pas des règles implicites de savoir vivre à un encadrement juridique à mon avis impossible à définir de manière rigoureuse et dont les excès pourraient être pires que le problème qu'il prétendrait résoudre.
Donc au risque de me répéter, la solution législative existe en théorie, mais ce n'est pas du tout ce que je défends ni ce dont je rêve.
La quantité n'excuse pas la tromperie, bien au contraire.
S'il s'agissait d'un unique cas sur internet… à la limite, peu m'importerait qu'il soit ou non explicitement signalé le produit d'une IA.
Le problème prend justement forme lorsque ces contenus se répandent et se mélangent sans distinction avec des créations humaines. C'est alors qu'il devient important de les signaler pour éviter la confusion.
Dans le doute je prefere le préciser, mais le vous n'étais pas personnel.
On ne précise pas quelque-chose dont l'auteur juge qu'elle n'est pas à communiquer. Il n'existerait pas autant de fausses informations, de pseudos sciences, etc sinon. Pourtant des centaines de millions de gens en sont victimes sans être informé et biaisé dans leurs façon d'appréhender cela.
Pourtant force est de constater que beaucoup de gens aiment ça et qu'ils ne veulent pas savoir la vérité tant que ça va dans leurs sens, leurs idéologie. Pourquoi en serait il différent dans ce cas présent ?
Après vous semblez résumer une interaction avec quelqu'un qui utilise l'IA à un simple copié coller. Mais il y a des prompts qui rentre en jeu. Parfois l'interlocuteur (enfin j'imagine) doit échanger pas mal avec une IA, voir retravaille sa réponse avant de la communiquer.
Elle ne reste qu'un outil qui est parfois utilisé avec plus ou moins de succès. Et en soit savoir utiliser un outil n'est ce pas une compétence humaine ?
Après en soit si ça se résume à de simples copier coller je suis plutôt d'accord. Mais dans le monde où nous vivons aujourd'hui je pense qu'il relève plus de la responsabilité personnelle d'arriver à différencier un interlocuteur de contenu entièrement généré par IA avec peu de travail. Que du rêve de l'obligation de la mention IA. N'oublions pas qu'aujourdhui que bien plus de contenus ( que ce soit des articles, des vidéos sur les réseaux, de musiques, etc ) sont généré par IA que directement par l'homme. Et ce n'est que le "début"
Je me souviens d'un sujet d'il y a treize ans (j'avais alors un autre compte) initié par un membre éminent de ce site.
https://www.bdsm.fr/forum/thread/729/La-v%C3%A9rit%C3%A9-sur-l'intelligence/
On entendait alors par "intelligence" une adaptation à l'altérité. C'est à dire une intelligence humaine, si ce n'est naturelle.
En ce sens, l'intelligence artificielle ne presente aucun rapport avec l'intelligence. Elle n'est qu'artifice et n'a rien d'intelligent (on a plus haut indiqué la transposition abusive du terme anglais). Elle n'est pas destinée à tisser du lien entre deux êtres, mais de substituer une machine à l'être au bout du lien.
Et le lien ne relie plus rien.
Au mieux, il relie deux dupes dont qui font chacun écrire de leur côté le même chatGPT et s'envoient leurs mutuels copiés/collés. S'ils sont au courant tous les deux, je m'interroge. Si un seul l'est, je m'amuse : tant pis pour l'autre.
Mais au pire, si l'un écrit sincèrement et se dévoile alors que l'autre ne lui envoie qu'un masque qu'il ne prend pas la peine d'écrire ni d'imprégner de lui-même, alors je me désole.
Bonsoir à tous,
Si ce n'est pas important, pourquoi ne pas l'indiquer ? C'est sans importance ? Alors précisons. :) Et tout le monde sera satisfait.
Vous avez raison. Pour savoir si cela convient aux deux, les deux doivent être au courant. Celui qui diffuse le message, le sait. Il suffit qu'il l'indique à ceux à qui il le destine.
Pour moi oui. Si je veux discuter avec une IA, je vais sur un site d'IA. Contraposée : si je ne vais pas sur site d'IA, c'est que je ne veux pas discuter avec une IA.
En particulier, ici, c'est une site de BDSM. Le BDSM requiert un consentement mutuel. Donc de l'humain et une transparence mutuelle car on ne peut pas consentir à ce qu'on ignore. Donc c'est que je souhaite ici converser avec des humains. Donc c'est important que si on me présente la composition d'une IA, on me l'annonce clairement.
Quand on présente la production d'une IA sous la couverture d'un profil qui n'indique pas "IA" mais "homme" ou "femme", il n'est pas question de se sentir trahi, mais d'avoir été trahi.
Non.




