「人工知能に職が奪われる」「人工知能に人類が支配される」――人工知能(AI)に関して、漠然とした脅威論を見聞きすることが多い。しかし、本当に準備しておくべきことは何か? どのような恩恵があるのか? どんなリスクがあるのか? 海外ではすでにAI倫理について方針を示す活動が始まっている。2017年1月、世界中の主要人物が集結したアシロマ会議では「アシロマ23原則」というガイドラインが提案され、米国電気電子学会(IEEE)はAIがもたらす倫理的課題について検討する「Ethically Aligned Design」という文書を公開。日本からは、人工知能学会が「人工知能学会 倫理指針」を発信している。 米国を中心としてグーグル・フェイスブック・アマゾン・IBMなどAI開発を行う企業同士も協力体制を築き、AIの倫理的な利活用を実現するための団体「Partnership on AI」を立ち上げている。