時々、AIが間違ったことを言うのは、それが愚かだからではなく、誰もそれに責任を持つように求めていないからです。
私は多くの「AIツール」を使ったことがあります。書くのは速く、絵はそれなりに描けますが、毎回それが真面目にデータを作り、論理をめちゃくちゃに語っているのを見ると、私は一つのことを理解します:生成は問題ではなく、検証が門戸です。
これが私が@Mira_Networkに関心を持っている理由です。
それは次のChatGPTを作ろうとしているのではなく、一連のGPUを使って推論コンペを行おうとしているのでもありません。むしろ、AIの出力をどう信頼できるのかという質問を異なる視点から直接投げかけています。
ミラが与えた答えは「私たちはもっと強いモデルを持っている」ではなく、「AIに話をさせたければ、それが調べられ、責任を問われ、証明される必要がある」でした。
あなたはMiraエコシステムでAIを使ってコンテンツを生成します。それは一連の小さな判断に分解され、複数のノードに検証を依頼します。このプロセスはブロックチェーンに記録され、結果が合意され、エラーが発生した場合は賠償が必要です。
あなたはそれを使って文章を書いたり、定義を検索したり、画像を生成したりできます。その横には、この結論が誰によって提供されたのか、合意があるのか、信頼できるのかが示されます。
以前AIを使っていた時は、
原文表示