Messages
.Posté dans Conseil branding
Pour les conseils : la méditation et la réflexion.  Pas de contact direct mais une proposition de récitation Le Singe et le Chat de Jean de La Fontaine. Après si vous êtes consentant et prêt à courir les risques. Ce n'est pas un geste anodin. Demander à votre médécin généraliste. Il vous orientera vers le spécialiste le plus compétent. Et en plus ce sera peut-être pris en charge par la mutuelle. Tenez nous au courant.  
Si j’ai bien compris la question de départ Sylvie demande si elle doit informer les personnes pour lesquelles elle est spectatrice. Mon avis : il ne faut pas informer. Chaque adulte est responsable de ce qu’il fait. C’est vrai que le titre donne envie d’élargir le sujet. Celui qui écrit doit il informer ? Contrairement à la question de base qui repose sur la volonté personnelle de celui qui se pose la question. La question élargie repose sur le bon vouloir de celui qui utilise l’IA. C’est peut être cette différence qui fait que Sylvie a délimitée la question à elle même. C’est assez difficile de voir les autres se faire duper sous nos yeux sans intervenir. Mais chacun doit faire ses propres erreurs pour se développer. Ce n’est pas se rendre service de voler au secours sur tous les sujets. C’est assez proche des arnaques sentimentales et escroqueries. Ca fait mal de voir les gens se faire avoir. Mais c’est tellement gros qu’il y a quand même une forme de consentement. Le mensonge prend l’ascenseur et la vérité l’escalier.
Menu
.Posté dans Discussion avec une IA: informer ou pas ?
Aucun problème, je ne l'ai pas pris personnellement. Ma réponse, y compris la dernière était générale, même si je m'y associe en tant qu'individualité. De manière générale, le problème n'est ni la personne qui n'est pas au courant qu'elle lit de l'IA, ni son égo. Certes, mais il y en a d'autres qui veulent savoir. Dont moi (pardon), dont d'autres par exemple, qui se sont manifestés ici en donnant leur avis qui indiquait qu'il leur était important de savoir.  Il y a donc les deux. Comment faire la différence ? Je ne vois qu'une solution : annoncer honnêtement la couleur. "- Ça te va si je corresponds avec toi avec une IA ?"  "- Pas de problème, j'adooore ça !" Ou encore : " * Ce texte a été généré avec chatGPT." Je ne vois pas le problème pour une personne qui n'a pas l'intention de dissimuler quoi que ce soit. Le prompt est rarement fourni. En tout cas, moi, je n'ai jamais vu personne qui l'affichât avec le résultat…  Et s'il l'était, le problème serait résolu de fait, puisqu'il s'agirait alors de l'indication explicite que le résultat a été produit par IA. D'expérience, au vu de l'utilisation des IA génératives que j'observe en général, le principe du résultat généré par IA et repris ensuite de manière significative par l'humain qui a interrogé l'IA est illusoire. Tout simplement parce que cela demande au moins autant d'effort. Et en réalité très souvent bien davantage. En fait, il faut presque tout vérifier. Mais bon… cas d'école, pour vous, je veux bien admettre la situation théorique.  Déjà, je ne crois pas du tout au cas de l'utilisateur qui interrogerait une IA pour finalement n'en rien garder de significatif. Sinon, autant s'en passer. C'est donc que le résultat final restera significativement imprégné du produit de l'IA et de sa créativité simulée. Eh bien, oui, pour moi il est important de le préciser. D'un point de vue strictement technique, oui, mais ce n'est pas la question. Si son utilisateur partage ce point de vue, je vois d'autant moins ce qui pourrait lui poser problème de préciser ce détail tout à la fois sans importance et révélateur d'une compétence humaine toute à son avantage. Alors j'ai l'impression que notre divergence se résumera bientôt à la proportion d'utilisateurs d'IA concernés par de simples copiés/collés. Encore une fois, à partir de ce que j'en vois dans d'autres domaines d'utilisation avec une équivalente tragédie, je les estime pour ma part à 100% avec une marge d'erreur strictement égale à 0.  On peut partir du principe que c'est à la personne trompée de se débrouiller pour ne pas se faire avoir. C'est une sorte de darwinisme social avec lequel je n'ai pas d'affinité particulière. Son problème repose sur son principe. Certes, mais jusqu'où le faible sera-t-il considéré comme une victime légitime s'il n'a pas su se défendre ? C'est une façon de voir le monde et les rapports humains. Sinon, on peut procéder autrement. Il y a essentiellement deux manières de faire. 1. Par un savoir vivre partagé qui rend évidentes des règles communes de bonne conduite. On dit "bonjour", on dit "merci", on ne fauche pas le porte-feuille qu'on a "trouvé" dans la rue parce qu'il vient de tomber du sac de la mamie… et quand on utilise une IA pour rédiger sa fiche de présentation ou son article sur bdsm.fr, on le précise. 2. Par la contrainte légale. Je préfère la première façon de procéder qui me semble tellement évidente… Mais bon. Comme je disais, je préfère le savoir-vivre partagé. La solution législative n'a pas ma préférence. Je serais prêt à la discuter sur le principe. Mais à tout prendre, je préfère les abus d'individus qui ne respectent pas des règles implicites de savoir vivre à un encadrement juridique à mon avis impossible à définir de manière rigoureuse et dont les excès pourraient être pires que le problème qu'il prétendrait résoudre. Donc au risque de me répéter, la solution législative existe en théorie, mais ce n'est pas du tout ce que je défends ni ce dont je rêve. La quantité n'excuse pas la tromperie, bien au contraire.  S'il s'agissait d'un unique cas sur internet… à la limite, peu m'importerait qu'il soit ou non explicitement signalé le produit d'une IA. Le problème prend justement forme lorsque ces contenus se répandent et se mélangent sans distinction avec des créations humaines. C'est alors qu'il devient important de les signaler pour éviter la confusion.
Dans le doute je prefere le préciser, mais le vous n'étais pas personnel.   On ne précise pas quelque-chose dont l'auteur juge qu'elle n'est pas à communiquer. Il n'existerait pas autant de fausses informations, de pseudos sciences, etc sinon. Pourtant des centaines de millions de gens en sont victimes sans être informé et biaisé dans leurs façon d'appréhender cela.   Pourtant force est de constater que beaucoup de gens aiment ça et qu'ils ne veulent pas savoir la vérité tant que ça va dans leurs sens, leurs idéologie. Pourquoi en serait il différent dans ce cas présent ?    Après vous semblez résumer une interaction avec quelqu'un qui utilise l'IA à un simple copié coller. Mais il y a des prompts qui rentre en jeu. Parfois l'interlocuteur (enfin j'imagine) doit échanger pas mal avec une IA, voir retravaille sa réponse avant de la communiquer. Elle ne reste qu'un outil qui est parfois utilisé avec plus ou moins de succès. Et en soit savoir utiliser un outil n'est ce pas une compétence humaine ?   Après en soit si ça se résume à de simples copier coller je suis plutôt d'accord. Mais dans le monde où nous vivons aujourd'hui je pense qu'il relève plus de la responsabilité personnelle d'arriver à différencier un interlocuteur de contenu entièrement généré par IA avec peu de travail. Que du rêve de l'obligation de la mention IA. N'oublions pas qu'aujourdhui que bien plus de contenus ( que ce soit des articles, des vidéos sur les réseaux, de musiques, etc ) sont généré par IA que directement par l'homme. Et ce n'est que le "début"