AIをどれだけ信頼できますか?大規模な展開の前に自信を構築する方法

組織は、AIを組織全体に展開する前に、AIへの信頼を構築する必要があります。 AIをより信頼性が高く倫理的なものにするための簡単な手順を次に示します。
“href =” https://www.techrepublic.com/a/hub/i/r/2020/11/11/44436744-fe4e-4eaf-bdbe-c943NS9889NS46/ resize /770x / f2d09d6fe3e2f95514d3bf 05eebf0765/ metamorworks -11。jpg “target =” _ blank “> 画像:iStock / metamorworks
2019では、Amazonの顔認識テクノロジーニューイングランドペイトリオッツのデュロンハーモン、ボストンブルーインズのブラッドマルシャン、および25他のニューイングランドのアスリートが誤ってマグショットのデータベースと一致した場合の犯罪者。
見る: 人工知能倫理ポリシー(TechRepublic Premium)
人工知能はどのように改善され、企業とその顧客はいつそれを信頼できるようになりますか?
「AIシステムへの不信の問題は、今年のIBMの年次顧客および開発者会議の主要なテーマでした」とIBMの設計生産性に携わるRonPoznanskyは述べています。 「率直に言って、ほとんどの人はAIを信頼していません。少なくとも、AIを本番環境に導入するには十分ではありません。A2018エコノミストが実施した調査では、94経営幹部の%は、AIの採用が戦略的課題を解決するために重要であると考えていますが、MIT Sloan Management Reviewは2018 それだけ 18組織の%は真のAIの「パイオニア」であり、AIを広く採用していますこのギャップは、AIコミュニティで私たちが抱えている非常に現実的な使いやすさの問題を示しています。人々は私たちのテクノロジーを望んでいますが、現在の状態では機能していません。」
Poznansky信頼の欠如が大きな問題であると感じています。
「人々がまだAIツールを信頼していないのにはいくつかの非常に良い理由があります」と彼は言いました。 「まず、偏見のホットボタンの問題があります。最近の注目を集める事件は、当然のことながらメディアの注目を集めており、機械学習の偏見の概念を一般的な名前にするのに役立っています。レイシスト、セクシスト、またはその他の偏見のある出力。 “
参照:メタバースチートシート:知っておくべきことすべて(無料PDF)(TechRepublic)
AIバイアスを理解する
一方、Poznanskyやその他の企業は、AIが設計によってバイアスされていることを企業に思い出させます。企業はバイアスの性質を理解しているため、AIを快適に使用できます。
例として、COVIDのソリューションを特定するための主要なAI分子実験がヨーロッパで行われた場合、意図的に議論されなかった研究tを高速化するために、問題の分子は除外されましたime to results。
とはいえ、AIが対処することを目的とした元のビジネスユースケースから離れた場合、または機械学習などの基盤となるAIテクノロジーがデータパターンとフォームの不正確な結論。
中間点を見つける
AIからの偏った結果を回避するために、今日のゴールドスタンダードの方法は、AIの結果をチェックして再チェックし、それが内にあることを確認することです。 人間の主題の専門家のチームが結論付けるものの%精度。その他の場合、企業は次のように結論付ける可能性があります46%の精度は、AIモデルが少なくとも人間がアドバイスの下で取ることができる推奨事項の作成を開始するのに十分です。
見る: 手遅れになる前にAIバイアスに注意を払う必要があります (TechRepublic)
意図的でブラインドなバイアスがどこにあるかを理解しながら、AIが提供する精度の程度について適切な妥協点に到達するスポットは、AIを使用するときに組織が適用できる中間点ソリューションである可能性があります。
精度とバイアスのバランスをとる中間点を見つけることで、企業は次の3つのことを実行できます。
- 彼らはすぐにビジネスでAIを使い始めることができますが、注意が必要です人間がAIの結論を確認し、受け入れるか拒否するか。
- 新しい機能や機能を備えた他のビジネスソフトウェアを強化するのと同じ方法で、AIの精度を引き続き向上させることができます。
- データサイエンス間の健全なコラボレーションを促進できます。 ITおよびエンドビジネスユーザー。
「AIへの信頼の欠如というこの緊急の問題を解決することは…不信の原因に取り組むことから始まります」とPoznanskyは言いました。 「バイアスの問題に取り組むために、データセット[should be]は、トレーニングデータを拡張して死角をなくすように設計されています。」
データ、分析、AIニュースレター
データサイエンス、ビッグデータ分析、人工知能に関する最新のニュースとベストプラクティスを学びましょう。月曜日に配信
今日サインアップする