低コスト化が進む環境センサーとAI駆動の分析ツールを組み合わせることで、より迅速で洞察に富んだ環境計画が実現できる可能性が示されている。
生態系と天然資源の利用方法についてより良い意思決定を行う必要性は、Fast-track Approvals Billの下で提案された変更の承認にはより迅速な評価が求められるため、今まで以上に喫緊のものとなっている。
土地と水に関するデータをまとめるオープンアクセスの共同プロジェクトであるKuaha Matahikoでの研究の一環として、我々はイウィやハプー(部族)グループの間でAIに取り組む強い意欲を見出した。
人手不足に悩む環境カイティアキ(守護者)組織は、AIが分断された環境データセットを統合し、迅速かつ低コストで分析能力を向上させる可能性を見出した。
この需要に基づき、Kuaha Matahikoプロジェクトはニュージーランドの環境データで訓練された実用的なAIを開発した。これは、カスタムAIが小規模なグループでさえ現実的な選択肢となりつつある転換点を示している。
しかし、注意が必要である。過去の経験から、アルゴリズム駆動のシステムは、しばしばデータ収集における既存の不平等を再生産し、結果に対する想像力を閉ざす経路に我々を閉じ込めてしまうことがある。
これらの問題は、多くの場合、2つの相互に関連した問題から生じる:場当たり的なデータ収集の遺産と、データ量の増加が正確性の向上につながるという誤った信念である。
「精度の罠」
まず、有用なAIシステムには、スピードと量を伴う豊富なデータが必要である。環境議会委員は、ニュージーランドの環境データシステムが場当たり的で、機会主義的で、リソース不足であることを歴代政府に警告してきた。
既存の環境データベースは、主に国家主導の農業科学とその環境影響を監視する最近の取り組みの優先事項を反映している。また、我々の環境データはマータウランガ・マオリ(マオリの知識体系)を系統的に無視している。
長期にわたる環境データセットは非常に価値がある。しかし、場所や問題の網羅性において非常に不完全であり、過去に遡ってデータ収集をやり直すことはできない。不均一で排他的なデータ生成の歴史によって生じたギャップとバイアスを認識することが重要である。なぜなら、将来のAIの訓練に使用されるのはそれらのデータ(および組み込まれた仮定)だからである。
第二に、AIは確実性と精度を約束する。しかし、精密農業を調査した研究は、ビッグデータの高い量と粒度を高い精度と誤解した場合に生じるリスクを説明している。ビッグデータの精度に対する過度の信頼は、チェックアンドバランスの侵食につながる可能性がある。
アルゴリズムの不透明さが増すにつれ、この問題はさらに大きくなる。現在、ほとんどのアルゴリズムは理解不能である。これは技術的な複雑さ、ユーザーの誤解、開発者の意図的な戦略に起因する。これにより、不正確さのリスクが見えにくくなる。
アルゴリズムの不透明さに注意を払わないと、「精度の罠」に陥るリスクがある。これは、AIの精度に対する信念が、AIの出力の正確性を無批判に受け入れることにつながる場合に起こる。これは危険である。なぜなら、我々は客観的な「硬い事実」の信頼できる表現として、数字に政治的、社会的、法的価値を与えているからである。
正確だが不正確なモデルに基づいて将来の出来事を予測(そして統治)するためにAIシステムが使用される場合、これらのリスクは急速に高まる。しかし、AI出力が評価と意思決定の基本的な構成要素となった場合、どうなるのか?それらをまったく信じない選択肢はあるのだろうか?
「鉄の檻」を避けるには
ある可能性のある未来は、ドイツの社会学者Max Weberが「合理性の鉄の檻」と呼んだものにある。これは、コミュニティが合理的で精密かつ効率的なシステムに閉じ込められ、同時に非人間的で不平等なものとなる状態である。
この未来を避けるには、包括的で理解可能で多様なAIパートナーシップを積極的に創造することが必要である。これは合理性を拒否することではなく、その非合理的な結果を緩和することである。
我々の進化するデータとAIガバナンスフレームワークは、見つけやすさ、アクセス可能性、相互運用性、再利用可能性(FAIR)の原則に基づいている。これらは非常に有用である。しかし、データ収集の社会的歴史には目をつぶっている。
2018年の国勢調査の失敗は、歴史的不平等が無視された場合に何が起こるかの顕著な例である。我々は既存の環境データをやり直すことはできない。しかし、新しいAIシステムは、過去のデータギャップの影響を認識することを設計に組み込む必要がある。また、認識を超えて、ギャップに対処するためにデータを積極的に充実させることも意味するかもしれない。
AIの世界観を広げる
データとAIは人間の目標に奉仕する必要がある。先住民データ主権運動は、先住民がコミュニティ、資源、土地に関するデータを所有し、管理する権利を主張している。これらは、集団的利益、権限、責任、倫理(CARE)として知られるフレームワークを生み出した。
これらは、人間関係の繁栄を第一に考える、データ関係を強化するモデルを提供している。ニュージーランドでは、2019年にTe Kāhui Raraunga Māoriが独立機関として設立され、マオリが自身のデータにアクセスし、収集し、使用できるようにしている。彼らのデータガバナンスモデルは、これらのCARE原則を実践している例である。
さらに大きな一歩前進は、AIの世界観を拡大することだろう。人間の目標に奉仕するということは、異なるAIに組み込まれた仮定と優先事項を明らかにすることを意味する。これは、現在この分野を支配している「WEIRD」(西洋的、教育を受けた、産業化された、豊かな、発展した)と形容される視点を超えて、AI開発を開放することを意味する。
ニュージーランドの環境データでAIを訓練し、マオリ組織のために使用することは一つのことである。しかし、マータウランガ・マオリと、マオリの世界観に組み込まれた生命に対する責任を体現するAIを作ることは、より根本的なことである。
我々は、檻を閉じ込め、未来を閉ざすことを避けるために、多様な世界観から意図的に構築された、このラジカルなAIのビジョンを必要としている。
コメント