同法には「国家政権の転覆扇動、社会主義制度の崩壊、国家安全と利益への危害、国家イメージの損害、国家分裂の扇動、国家統一と社会の安定の破壊、テロ・原理主義の宣伝、民族同士の憎悪や差別、暴力、ポルノ、その他虚偽の有害情報など法律法規が禁止した内容を生成してはならない」と定め、違反した場合にはAIモデルの運用を停止するよう求めている。また、生成AIサービスを運用する場合には国に登記する必要もある。
つまり、習近平総書記ら政治指導者への批判や中国経済悲観論などの文章をAIが生成した場合、企業は責任を取る必要がある。実際、筆者がバイドゥの「アーニーボット」を使っみての印象だが、回答不能と返答される確率はChatGPTより高かった。センシティブな話題については言及を避けるセーフティー機能の基準がより厳格に設定されていると思われる。
難しくなった企業の個人データ活用
また、生成AIについては「他者の著作物をAIのトレーニングに使う場合に合意は必要か」が世界的な課題だ。日本でもネットに公開したイラストを勝手にAIに学習されたくない、代価を支払わないのはおかしいという反発はある。「生成AIサービス管理暫行辨法」では知的財産の保護も組み込まれている。
これが生成したテキストや画像が剽窃にならなければいいのか、それともAIのトレーニング用データについてもいちいち権利者の保護が必要なのかについてはまだ明確には決まっていない。
政府と企業が強い力を持つため個人データは使い放題……というのがかつての中国のイメージだったが、近年ではだいぶ状況が変わっている。IT企業がビッグデータを用いて人民から搾取しているとの批判が高まるなか、中国共産党はIT企業規制に代表される一連の施策を強化している。
今や個人データを使い放題なのは政府だけで、企業は脱落した格好だ。あまりにも強すぎる規制は次世代の巨大産業であるAIの発展には不利との見方まで広がっている。
このような弱点も抱えているが、百模大戦に象徴されるように生成AIに対する熱はすさまじいものがある。ビジネスチャンスがあると思えば、無数のプレイヤーが参入し、多くが失敗するなかで、エクセレントな企業が生まれていく。太陽光パネルや電気自動車(EV)など多くの分野で繰り返されてきた中国の勝ちパターンだ。
AIでもその図式が繰り返されるのか。中国AIの発展を注視したい。