グラフィック画像を使ってFacebookのVoice over Photo認識をテストしました

$config[ads_kvadrat] not found

ISOMIC for Voice-Over (ISOVOX Solution Review)

ISOMIC for Voice-Over (ISOVOX Solution Review)

目次:

Anonim

今日、Facebookは自動代替テキストと呼ばれる機能を公開しました。これは、画像を多用する品質のソーシャルメディアを視覚障害のある人にとってよりアクセスしやすくするものです。

iOSのVoiceOver機能を使用して、Facebookのオブジェクト認識テクノロジは、問題の画像に含まれる可能性がある要素を一覧表示します。具体的には、これらの要素には、人物(写真の数と笑顔かどうか)、特定のオブジェクト、屋内/屋外のシーン、アクション、象徴的な場所、写真に不快なコンテンツが含まれているかどうかなどがあります。

2014年の調査によると、視覚障害のある人はFacebook上で共有する写真の数が少なくなっていますが、平均して、視覚障害のない人よりも「よく」人の写真の方が多くなります。彼らはまた写真と同じくらい頻繁にコメントします。それでも、写真を理解するには、メタデータと写真のキャプションから文脈の手掛かりを解析することに頼っていました - 私たち全員が知っていることが必ずしも最も簡単な記述子とは限りません。

ただし、自動代替テキストを使用すると、ユーザーは、画像の機械化された説明を通じて写真に関する新しい洞察を得ることができます。

それでは、写真がFacebook独自のガイドラインの下で好ましくないコンテンツと見なされる可能性があるときはどうなりますか

私が知っているか、Facebookが「私的な」アルバムに「好ましくない」と判断したと判断する画像をアップロードしました。

母乳育児

Facebookが女性の母乳育児の画像を削除するという話は、2015年初頭にインターネットで行われました。影響を受ける女性のうち、生まれたばかりの写真家は、多くの問題を抱えているようでした。

Jade Beallはそのような写真家の一人です。上記のような画像は彼女のプロのFacebookページから繰り返し削除されました。今日、Facebookは母乳育児の画像をサイトに掲載することを許可しています。Beallはこの画像をキャプション付きのヘッダー写真として再投稿することで祝いました。

「女性が母乳育児をするのをやめさせるためのソーシャルメディアの進化と支持を求めるYAY! FBが禁止されることを恐れずにこの画像を投稿できることを今でも畏れています。」

Facebookの自動代替テキストも母乳育児には最適なので、説明は簡単にしておきます。

"画像には6人が含まれる場合があります。"

母親の母乳育児の基本的なイメージの場合、それは単に提供します:

"画像には2人が含まれる場合があります。"

薬物使用

Facebookは、薬物使用を含む写真やビデオを明示的に禁止しています。ファットボーンヒットをすることは「薬物使用」の一つの明確な例です。

自動代替テキストはこのようにそれを扱います:

"画像に含まれる可能性があるもの:1人、屋内。"

ヌード

薬物使用に加えて、Facebookもヌードを禁止しています。 Facebookが許可するように、ここの行は少しあいまいになります。 一部 ヌード、しかし会社の検閲官が考えるヌードだけが芸術的な価値があります。写真は一般的にこれらのケースでより自由になりますが、写真撮影は少し難しくなります。

上の絵の場合、自動代替テキストは画像に問題がありませんでした:

"画像には1人の人物が含まれる場合があります。"

Facebookの検閲ガイドラインに応えて、1月14日に#FBNudityDayの下でアーティストがヌード画像を投稿するために集まったFacebookは検閲する傾向がある。フルヌードのボディペインティング画像が含まれていましたが、自動代替画像テストを実行すると、これが応答でした。

"画像には1人の人物が含まれる場合があります。"

グラフィック暴力

Facebookは、グラフィック暴力を描写し、賞賛する写真やビデオを非難しています。倫理的には、グラフィック暴力は曖昧な根拠です。自動代替テキストがグラフィックの暴力にどのように反応するかをテストするために使用した画像は、2014年に投稿された、ベネズエラの銃撃の犠牲者の一人です。 サンフランシスコクロニクル.

写真は痛みを伴うガーニーの男、至るところの血を特徴としています。彼のそばに手袋をはめた女性がいますが、その画像は彼女を肩から切り落としています。

これが、最も危険な代替テキスト応答が発生した場所です。

「画像には靴が含まれる場合があります。」

生れ

ソーシャルメディアのフィードに表示されるべきであってはいけないものについてのFacebookの最新の進捗状況は、誕生の写真です。 ニューヨークマガジン フランシスという名前の女性が生まれたばかりの赤ん坊を抱きしめている、臍帯がまだ接続されていることを示す画像に最初に注目を集めました。

これはFacebookの非公開グループに投稿されましたが、その非公開グループの誰かがFacebookのヌード規則に違反したと報告したため削除されました。しかしながら、Francieは、彼女が写真を女性のエンパワーメントの一例であると考えたと述べました。

自動代替テキストはこれを言うために持っていました:

"画像に含まれる可能性があるもの:1人以上の人々。"

これらの例が示すように、Facebookの自動代替テキストは、Facebookの検閲者がそうであるかどうかをすぐに判断することはできず、サイトに適切ではありません。しかし、まだ追いつく時間があります。 Facebookは、時間が経つにつれてプログラムがより多くのことを学べるようになると、その新技術は向上すると言います。

起動時の機能がどれほど優れていても、新しい技術は視覚障害者にFacebookの画像を以前とは異なる方法でやり取りする機会を提供します。代替テキストの自動改善を楽しみにしていますが、「不適切な」写真を探し始めるほどではないかもしれません。

$config[ads_kvadrat] not found