O Google アシスタント これは、私たちの日常生活に最もよく使われている人工知能の XNUMX つですが、このように頻繁に使用すると、不正なコマンドが開かれる可能性もあります。
それを念頭に置いて、 グーグル は、パーソナル アシスタントからのスマートな応答を特徴とする新しいアップデートを開始します。このアップデートは、人工知能や実生活でそのような誤った行動を使用してはならないことを教育し、主に通知することに焦点を当てています。
目新しさはの更新に似ています BIA、I ブラデスコ、女性蔑視の攻撃やその他の犯罪に対応し始めました。 今すぐすべての詳細をご覧ください。
2020年以降アップデート準備中
#の名前で私にそんな話をしないで、または グーグル 彼は報告を受けて新しい回答の準備を始めた I'd Blush if I Could da ユネスコ これは 2019 年にリリースされ、女性イントネーションの声の使用がジェンダー バイアスを永続させるのに役立っていることを示していました。
アルピタ・クマール、 とは Google アシスタント パーソナリティ チームのシニア コンテンツ ストラテジスト、今日(03)にリリースされたアイデアに取り組み始めましたが、継続的な更新と見なすことができます. それにもかかわらず、新しい用語が考慮され、毎日犯罪として使用されています.

からの新しい応答の発表イベント中に Google アシスタント, アルピタ すべての作業は依然として手動で行われていますが、時間の経過とともに、新しい用語と適切な応答を登録するためだけのアルゴリズムの開発が実行される可能性があると指摘しました。
Google では、さまざまな利害関係者グループを対象とした調査、ユーザー エクスペリエンス調査、インクルージョン チャンピオン (この種の虐待や不適切な行為の標的となってきたコミュニティに属する Google 社員) との内部協議を行っています。 これらの調査から得たフィードバックは非常に貴重であり、戦略を改善するのに役立ちました.
Arpita Kumar、Google アシスタント パーソナリティ チームのコンテンツ ストラテジスト
すべてのユーザーにリリースされる前に、一部の一般ユーザーを対象に小規模なテストが実施されたところ、驚くべきことに、パーソナル アシスタントに対するフィードバックが 6% 増加しました。 予想外の回答を受け取った分析に参加した人々は、謝罪したり、なぜそのような行動をとってはいけないのかと疑問を抱くようになりました。
不正なコマンドはどのように特定されましたか?
OGウーグルアシスタント 95 か国で利用可能で、29 の異なる言語でコマンドを送信および理解できるため、開発会社は回避できる多数のコマンドにアクセスできます。

アルピタ 識別プロセスは、バックグラウンドでレビューを実行できるように、ユーザーの発言をフィルタリングすることから始まったことを共有しました。
新しい答えの作成はその後すぐに行われました。 女性によって作成された本、記事、その他のコンテンツは、回答を作成するための基礎として使用されました。これは、世界中で、女性と見なされるイントネーションを持つ Google のパーソナル アシスタントがより多くの攻撃を受けていたためです。

これは、オレンジ色の声が Google アシスタント (男性イントネーションで)攻撃されていませんでした。 ユーザーは「実在の人物ではない」という言い訳を使って、同性愛嫌悪の口調で命令を発していました。 昨年リリースされたオレンジボイスは、実生活で簡単に再現できる攻撃を受けています。
新しい答えは何ですか?
攻撃的と見なされるコマンドがシステムによって識別されると、ユーモアを交えたり、インターネット検索に誘導したりする代わりに、特別な応答が音声で送信されます。 この上:

話すことに加えて、 Google アシスタント 同じ行動が「実生活」に取り入れられないように、ユーザーを教育します。 同社は、不適切なアプローチをするユーザーを禁止することはありませんが、身近な人が同じ攻撃を受けないように考え方を変えようとします。 別の例を確認してください。

ブラジルの Google アシスタント
ブラジルは、最も多く使用している国の XNUMX つです。 Google アシスタント 世界ランキングでは、最もアクティブなユーザーがいる国のリストで 19 位にランクされています。 COVID-XNUMX パンデミックの到来により、使用が増加し、同社はブラジル人が最初にニュースを受け取ることになると判断しました。

ポルトガル語はいくつかのバリエーションがある言語であり、新しい答えが得られるように、国際チームはブラジルの専門家と協力しました。 によると 悪いマイア、マーケティング責任者 Google アシスタント ラテンアメリカでは、200 の用語が挿入されましたが、これは虐待的なコマンドと見なされ、特別な応答を受け取る必要があります。

ブラジルのデータでは、 Google アシスタント 虐待的であり、そのうちの 15% はセクシャルハラスメントを伴う女性蔑視的な言葉を持っています。 毎日、女性はさまざまな状況で苦しんでいるので、 グーグルは、これらの変化を通じて、ユーザーの考え方を変えたいと考えています。
数字で言えば、赤い声への攻撃の 22% には女性蔑視的な発言が含まれており、オレンジ色の声に向けられたコメントの 13% は外見に関するものです (このうち 2% は女性蔑視に関係しています)。
例として、「ヌードを送信する」というリクエストがあります。 これは「冗談」と見なされる人もいるかもしれませんが、アプリの音声との会話であるため、このアプローチが、一部の人々、特に女性が親密さを侵害される可能性があるという考えを強化することも無視できません. 現実の世界では、これは一種のハラスメントと見なされます。 したがって、Google アシスタントはこの種の行動に対して強い姿勢を取っています。
ラテンアメリカ向け Google アシスタントのマーケティング責任者、Maia Mau 氏
チームは敬意を丁寧に求めるべきではないことを理解していたため、個人秘書は敬意を求めるときに「お願いします」の使用をやめました。 「そのように私に話しかけないでください」というフレーズは、そのような行動が個人秘書や実生活の人に向けられるべきではないことを教育し、示すのに理想的です.
新しい回答は、今日 (03) からすべてのユーザーが利用できます。また、新しい不正なコマンドが Google アシスタントに対してより頻繁に発せられるようになるとすぐに、更新が継続されます。 アップデートについてどう思いましたか? 教えてください コメント!
また見なさい
2022 年の選挙に関する Google 検索の最新情報をチェック.
ソース: グーグル
Showmetech について詳しく知る
最新ニュースを電子メールで受け取るには登録してください。