Je pense depuis toujours que la partie la plus sous-estimée dans un système d'IA n'est pas la capacité du modèle, mais ce qu'il advient lorsqu'il devient incontrôlable.
Lorsque l'IA n'est qu'un outil d'assistance, les erreurs peuvent être corrigées par l'humain. Mais lorsque l'IA commence à prendre des décisions en continu, à s'appeler mutuellement, à s'exécuter automatiquement, vous découvrez un problème réel : il devient trop tard pour demander « pourquoi ».
C'est aussi la raison pour laquelle je m'intéresse à @inference_labs. Il ne cherche pas à prouver que l'IA est « fiable », mais admet directement une chose : les jugements de l'IA ne doivent pas être confiés sans condition. Inference Labs choisit de se positionner après la décision. Pas d'explication du processus du modèle, pas de glorification du raisonnement, juste la vérification d'une chose — est-ce que ce comportement reste dans les limites autorisées ?
Cette position est très froide. Elle ne cherche pas à flatter la narration.
Mais plus un système devient autonome, plus il a besoin de cette structure « contrôlable même après coup ». Vous pouvez changer de modèle, changer de cadre, changer de paramètres, mais une fois que le système atteint une certaine échelle, la confiance ne peut plus reposer sur le ressenti, elle doit uniquement reposer sur une validation continue. De ce point de vue, Inference Labs ressemble davantage à la pose d'une route de fondation à long terme : pas pour rendre l'IA plus intelligente, mais pour s'assurer qu'en cas d'erreur, le système pourra encore tenir.
Ce genre de chose ne se voit pas au début, mais à un certain stade, sans elle, le développement de l'IA concernée s'arrêtera.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Je pense depuis toujours que la partie la plus sous-estimée dans un système d'IA n'est pas la capacité du modèle, mais ce qu'il advient lorsqu'il devient incontrôlable.
Lorsque l'IA n'est qu'un outil d'assistance,
les erreurs peuvent être corrigées par l'humain.
Mais lorsque l'IA commence à prendre des décisions en continu, à s'appeler mutuellement, à s'exécuter automatiquement,
vous découvrez un problème réel :
il devient trop tard pour demander « pourquoi ».
C'est aussi la raison pour laquelle je m'intéresse à @inference_labs.
Il ne cherche pas à prouver que l'IA est « fiable »,
mais admet directement une chose :
les jugements de l'IA ne doivent pas être confiés sans condition.
Inference Labs choisit de se positionner après la décision.
Pas d'explication du processus du modèle,
pas de glorification du raisonnement,
juste la vérification d'une chose —
est-ce que ce comportement reste dans les limites autorisées ?
Cette position est très froide.
Elle ne cherche pas à flatter la narration.
Mais plus un système devient autonome,
plus il a besoin de cette structure « contrôlable même après coup ».
Vous pouvez changer de modèle, changer de cadre, changer de paramètres,
mais une fois que le système atteint une certaine échelle,
la confiance ne peut plus reposer sur le ressenti,
elle doit uniquement reposer sur une validation continue.
De ce point de vue, Inference Labs ressemble davantage à la pose d'une route de fondation à long terme :
pas pour rendre l'IA plus intelligente,
mais pour s'assurer qu'en cas d'erreur, le système pourra encore tenir.
Ce genre de chose ne se voit pas au début,
mais à un certain stade,
sans elle, le développement de l'IA concernée s'arrêtera.