AIに変わる

高い技能を要しない製造業や、セールス、サーピスなどに関する仕事は、今後オートメーション化される可能性が高いのです。一方で対人的な関係性が必要になる他者への支援、介護などに関する職業については、仕事内容としては比較的シンプルであるにもかかわらず、オートメーション化される可能性は低いといいます。すなわち、今後も必要とされ続けるためには、知識だけでなく、スキルや態度及び価値観を獲得しなければならないし、生涯を通じて新しいコンピテンシーを獲得していくような柔軟さや積極的な態度が必要になってくるだろうと白井氏は言うのです。

AIに代表される近年の技術発展のもうーつの影響として、私たちに様々なこうした倫理的な課題を投げかけてきているということがあります。コンセプト・ノートでも挙げられている例として「完全自動化された自動車は、人間が運転する自動車よりも安全で効率的なのか。事故が起きた場合の責任は誰が負うのか」、「3Dプリンターは従来の製造工程を短縮し、より低廉で素早く商品を届けるようになるか。もし3Dプリンターが、家庭での銃器製造や、一人一人に個別化した薬の製造に使われるようになったら、一体どのようなことになるか」「ソーシャル・メディアや商店のディスカウント・カードの利用、ネット・ショッピングなどをする際に、私たちがどれだけの量の情報を企業などに渡しているかということについて、どれくらい考えているか」、といった問題があります。こうした問題は、技術の進歩に伴って新しく生じてきたのですが、その解を、見出していくためには、一定の倫理的な判断が必要になってきます。AI技術の発達により、AIは様々なタスクについて人間を代替することが可能になってきていますが、こうした倫理的な判断をAIには期待することはできません。少なくとも現在のAIには、自らの判断が、倫理や道徳に照らしてどうなのかを判断することはできませんし、また、こうした部分は人間が行わなければならないことでもあります。

これからAIがますます発達し、普及していくにつれて、倫理はより重要になってきます。例えば、AIの使用が適切であるかどうかを評価したり、法的に正しいのかを考えたり、あるいはAIの利用が人間の安全を脅かすとか、倫理上の問題があると考えられるようなケースについて判断したり、AIがもたらす潜在的な危険性について声を上げていくといったことが求められるだろうと白井氏は言うのです。こうした倫理的な判断を行っていくためにも、態度及び価値観は今後より一層重要になると考えられるのです。

以上のように、知識、スキル、態度及び価値観という3つのドメインを見てきましたが、それぞれのドメインを構成する要素が図にあるようにコンストラクトです。例えば、批判的思考力は認知的スキルの重要な構成要素ですし、平等や公平といった概念は価値観の重要な構成要素であると言えます。こうした、それぞれのドメインに含まれる具体的なコンストラクトとしてどのようなものが考えられるかについては、プロジェクト第一期の前半から議論が行われてきたそうですが、その際の基準としては、OECD事務局からの提案に基づいて6つが示されています。