Une recherche conjointe de l'Internet Institute d'Oxford et d'autres institutions a révélé que les méthodes d'évaluation de l'intelligence artificielle exagèrent souvent leurs performances, manquent de précision scientifique et de rigueur. Les chercheurs ont analysé 445 tests normalisés et ont constaté que de nombreux objectifs de ces tests n'étaient pas clairs et manquaient de fiabilité, ce qui soulève des doutes sur leur efficacité. Les chercheurs ont appelé à une révision approfondie de ces tests.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Une recherche conjointe de l'Internet Institute d'Oxford et d'autres institutions a révélé que les méthodes d'évaluation de l'intelligence artificielle exagèrent souvent leurs performances, manquent de précision scientifique et de rigueur. Les chercheurs ont analysé 445 tests normalisés et ont constaté que de nombreux objectifs de ces tests n'étaient pas clairs et manquaient de fiabilité, ce qui soulève des doutes sur leur efficacité. Les chercheurs ont appelé à une révision approfondie de ces tests.