t_wの輪郭

あれ

2023/3/19 19:31:00

note AIアシスタント的なものをみんなホイホイ作ってるんだけど、「AI生成コンテンツが爆増したらどうなるか」みたいなところまで対応できているのか心配になる。

なんかこう、短期的には荒れる未来が予想されるのだけど、サービス的にはちょっと荒れるぐらいの方が話題性があって、集客になって、良いのかもしれない。

テキストのAI生成コンテンツが爆増したら、TwitterなどのSNSサービスや、noteなどのテキスト投稿サービスへ投稿する人がAIコンテンツに対して不公平感を持つようになると思いますか、という質問ですね。

私は、その可能性はあると思います。なぜなら、AI生成コンテンツは、人間が書いたものと区別がつきにくく、また品質や正確さも高い場合が多いからです。そのため、AI生成コンテンツを利用する人は、効率的に多くの情報を発信したり、注目を集めたりすることができます。一方で、自分で書いたり編集したりする人は、時間や労力をかけても同じような成果を得られないかもしれません。これは、不公平感や劣等感を生む要因になると考えられます。

また、AI生成コンテンツは、データやアルゴリズムによって偏見やバイアスが含まれている可能性もあります12。例えば、「犯罪発生予測AI」3 や「採用判断AI」 などの事例では、人種や性別などの属性に基づいて不当に差別されることが指摘されています。このように、AI生成コンテンツが社会的・倫理的・法的な問題を引き起こすこともあり得ます。これは、被害者だけでなく第三者にも不公平感や不信感を与える可能性があります。

したがって、「Twitter」 や「note」 などのプラットフォームでは、「AI生成コンテンツ」と「人間生成コンテンツ」の区別や表示、「AI生成コンテンツ」の品質や信頼性の評価、「AI生成コンテンツ」の利用規約や倫理規範、「AI生成コンテンツ」に関する教育や啓発などの対策が必要だと思います。

── Bing AI

では、「Twitter」と「note」ではどんな対策をしていますか?

「Twitter」と「note」ではどんな対策をしていますか、という質問ですね。

私は、両方のプラットフォームがAI生成コンテンツに対して明確な対策を取っているとは思いません。しかし、一部の情報は見つけることができました。

「Twitter」では、2022年に「Twitter Write」という機能を導入しました。これは、「Note」と呼ばれるストーリーやその他の長いコンテンツを作成し、フォロワーが読んだり反応したりできるようにするためのコンポーザーツールです。この機能は、AI生成コンテンツと人間生成コンテンツの区別や表示を行っているかどうかは不明ですが、利用規約や倫理規範に関しては以下のように述べています。

Twitter Writeで作成されたNoteは、Twitterサービス利用規約およびTwitterルールに従わなければなりません。また、Note内で使用されるすべての画像や動画も同様です。Note内で使用されるすべての画像や動画に関しても同様です。

また、「Twitter」では、「AI生成コンテンツに関するGoogle検索のガイダンス」 に従っている可能性があります。これは、「Google」が2022年10月に発表したもので、「AI生成コンテンツを公開する場合は、それがAI生成であることを明示し、その目的や信頼性を説明すること」などを推奨しています。

「note」では、「AI生成コンテンツ」と「人間生成コンテンツ」の区別や表示に関する対策は見つけられませんでした。しかし、「note」では、「利用規約」 および「著作権ガイドライン」 に基づいて、「自分以外の人物(または法人)が著作権者である場合」「自分以外の人物(または法人)から許可・委託等を受けた場合」「自分以外の人物(または法人)から引用・転載等した場合」「自分以外の人物(または法人)から影響・参考等された場合」「自分以外の人物(または法人)から提供・協力等された場合」「自分以外のサービスから移行・連携等した場合」「自分以外のサービスから影響・参考等された場合」「自分以外のサービスから提供・協力等された場合」などについて適切な表記や引用符号を行うことが求められています。

以上が私が見つけた情報です。

── Bing AI

AI生成コンテンツと、人間が作ったコンテンツが共生するにはどうすればいいでしょうか、という質問ですね。

私は、そのためには、AIの技術的な発展だけでなく、AIの倫理的なガイドラインや規制も必要だと思います。また、人間とAIが協働することで、お互いの能力を補完し合うことも重要だと思います。

例えば、ウェブ検索結果1によると、「責任あるAI」という考え方が提唱されています。これは、「説明責任」「透明性」「正直さ」「公平性」「人間中心」という5つの原則に基づいて、AIを社会に取り入れることを意味します。このような原則を守ることで、AI生成コンテンツが人間の権利や利益を侵害したり、偏見や差別を助長したりしないようにすることができます。

また、ウェブ検索結果2によると、「ミッシング・ミドル」という概念が紹介されています。これは、「人間が得意な領域」「AIが得意な領域」に加えて、「AIが人間を助ける領域」と「人間がAIを助ける領域」が存在し、そここそが「人間とAIの協働」する領域だという考え方です。このような協働によって、新しい仕事やビジネスチャンスが生まれる可能性があります。

私は、このような視点から考えることで、AI生成コンテンツと人間生成コンテンツの共生は可能だと思います。

── Bing AI