Ce papier teste le sens de l’humour de ChatGPT plus de 90 % des blagues générées par ChatGPT étaient les mêmes 25 blagues.
This paper tests ChatGPT's sense of humor. Over 90% of the jokes generated by ChatGPT were the same 25 jokes.
L’humour peut améliorer la performance et la motivation humaines et est crucial dans le développement des relations. C’est un outil efficace pour influencer l’humeur et diriger l’attention. Par conséquent, un sens de l’humour qui est computationnel a le potentiel d’améliorer considérablement l’interaction homme-machine (IHM). Malheureusement, même si l’humour computationnel est un domaine d’étude de longue date, les ordinateurs créés sont loin d’être “drôles”. Cette question est même considérée comme une tâche AI-complète. Cependant, les améliorations en cours et les récentes découvertes en matière d’apprentissage automatique (ML) créent une large gamme de nouvelles applications et présentent de nouvelles chances pour le traitement du langage naturel (NLP).
Les grands modèles de langage (LLM) basés sur les transformateurs reflètent de plus en plus les connaissances implicites, y compris la morale, l’humour et les stéréotypes. L’humour est souvent subliminal et stimulé par de subtiles nuances. Il y a donc lieu d’être optimiste quant aux développements futurs en matière d’humour artificiel, compte tenu de ces nouvelles propriétés des LLM. ChatGPT d’OpenAI a récemment attiré beaucoup d’attention pour ses capacités révolutionnaires. Les utilisateurs peuvent avoir des échanges de conversation avec le modèle via l’API de chat public. Le système peut répondre à une large gamme de questions tout en considérant le dialogue contextuel précédent. Comme on peut le voir dans la figure 1, il peut même raconter des blagues. Amusant à utiliser, ChatGPT s’engage à un niveau humain.
Cependant, les consommateurs peuvent immédiatement voir les lacunes du modèle lorsqu’ils interagissent avec lui. Malgré la production de texte en anglais presque sans erreur, ChatGPT a parfois des erreurs de grammaire et de contenu. Ils ont constaté que ChatGPT répète souvent les mêmes blagues au cours de la précédente investigation. Les blagues offertes étaient également assez précises et nuancées. Ces résultats ont confirmé que le modèle n’a pas créé les blagues produites. Au lieu de cela, ils ont été copiés à partir des données d’entraînement ou même codés en dur dans une liste. Ils ont mené plusieurs expériences structurées basées sur des prompts pour en apprendre davantage sur le comportement du système et permettre des inférences concernant le processus de génération de la sortie de ChatGPT, car le fonctionnement interne du système n’est pas divulgué.
- Comment l’IA rend-elle les forêts plus sûres face aux incendies ?
- Apprentissage de l’estimation de la pose en utilisant de nouvelles techniques de vision par ordinateur.
- Rencontrez AdANNS un nouveau cadre qui utilise des représentations adaptatives pour différentes phases des pipelines ANNS pour améliorer l’équilibre précision-calcul.
Les chercheurs du Centre aérospatial allemand (DLR), de l’Université technique de Darmstadt et du Centre hessois pour l’IA veulent spécifiquement savoir, à travers une enquête systématique basée sur des prompts, dans quelle mesure ChatGPT peut capturer l’humour humain. Les trois conditions expérimentales d’invention de blagues, d’explication de blagues et de détection de blagues sont rassemblées comme contribution majeure. Le vocabulaire de l’intelligence artificielle utilise fréquemment des comparaisons à des traits humains, tels que les réseaux neuronaux ou la phrase intelligence artificielle elle-même. De plus, ils utilisent des mots liés à l’humain lorsqu’ils parlent d’agents conversationnels, qui visent à imiter le comportement humain aussi étroitement que possible. Par exemple, ChatGPT “comprend” ou “explique”.
Bien qu’ils pensent que ces comparaisons capturent avec précision le comportement et le fonctionnement interne du système, ils peuvent être trompeurs. Ils veulent préciser que les modèles d’IA discutés ne sont pas au niveau humain et, au mieux, sont des simulations de l’esprit humain. Cette étude ne cherche pas à répondre à la question philosophique de savoir si l’IA peut jamais penser ou comprendre consciemment.
We will continue to update IPGirl; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Gérer facilement les modèles d’apprentissage en profondeur avec des configurations TOML
- Eh GPU, qu’est-ce qui se passe avec ma matrice ?
- Si l’art est la façon dont nous exprimons notre humanité, où se situe l’IA ?
- Analyse de performance et optimisation de modèle PyTorch
- Maîtriser la gestion de configuration en apprentissage automatique avec Hydra.
- AI Telephone – Une Bataille de Modèles Multimodaux
- Des pipelines CI/CD transparents avec GitHub Actions sur GCP vos outils pour un MLOps efficace.