588 shaares
7 résultats
taggé
IA
L'Etat de l'Iowa va donc utiliser l'IA pour déterminer quels livres devront être bannis... C'est du gros n'importe quoi. Je n'ai plus de mot. Toutes les excuses sont bonnes pour faire passer les idées des conservateurs regressistes.
Méta moteurs pour rechercher des images sur plusieurs sources du web. Possibilité de filtrer par type de license d'utilisation.
Lorsque vous cliquez sur une image, l'IA en génère des similaires. J'ai fait 2-3 tests, ça a l'air de pas mal marcher. A voir ce que ça donne sur le long terme.
Lorsque vous cliquez sur une image, l'IA en génère des similaires. J'ai fait 2-3 tests, ça a l'air de pas mal marcher. A voir ce que ça donne sur le long terme.
Un prompt ChatGPT. A voir s'il est correct ou pas...
Haha je l'adore celui-là. Le bot Feelbetter, pour les gens qui n'ont pas les moyens de se payer un thérapeute mais qui veulent quand même échanger sur leur problème
We demonstrate through human evaluation that existing de-
tectors of machine-generated text are effective at predicting
low quality pages, outperforming, quite surprisingly, super-
vised spam classifiers. To our knowledge, this is the first use
of machine detection for a different NLP task.
• Using half a billion webpages, we conduct the largest appli-
cation of the detection models in the wild.
• We quantify the low quality pages that are surfaced by our
detector models. We perform extensive analysis, breaking
them down by attributes such as document length, age, and
topic.
• We qualitatively characterize and categorize the nature of the
low quality documents. We find traces of essay generation
farms, machine translated text, keyword optimizations, and
Not-Safe-For-Work (NSFW) content.
L'étude est intéressante et permet de mieux comprendre comment GTP fonctionne en arrière.
tectors of machine-generated text are effective at predicting
low quality pages, outperforming, quite surprisingly, super-
vised spam classifiers. To our knowledge, this is the first use
of machine detection for a different NLP task.
• Using half a billion webpages, we conduct the largest appli-
cation of the detection models in the wild.
• We quantify the low quality pages that are surfaced by our
detector models. We perform extensive analysis, breaking
them down by attributes such as document length, age, and
topic.
• We qualitatively characterize and categorize the nature of the
low quality documents. We find traces of essay generation
farms, machine translated text, keyword optimizations, and
Not-Safe-For-Work (NSFW) content.
L'étude est intéressante et permet de mieux comprendre comment GTP fonctionne en arrière.
Un petit article pas mal sur l'intégration de l'AI dans Bing.
Une liste d'IA à utiliser pour générer des couvertures de livre. Certaines sont gratuites et font un job pas trop mal. Pas trop fan de Lexica en revanche qui ignore tout simplement certains mots...