カタパルトスープレックス

イノベーションに効く世界の情報を日本語で

書評|差別するデザイン|"Technically Wrong" by Sara Wachter-Boettcher【2018年夏休み読書週間】

f:id:kazuya_nakamura:20180722150941p:plain

デザインは人を傷つけます。そして、場合によっては死に至らせる可能性もあります。このことについてはすでに翻訳が出ているジョナサン・シャリアートとシンシア・サヴァール・ソシエによる『悲劇的なデザイン』(デザイナー必読)でも詳しく紹介されています。

このような悪いデザインの危険性は最近になってようやく認知する動きが出てきました。単にオシャレでキレイなだけでなく、もっと大事なものだという認識。今回紹介するサラ・ワッターーボーチャーの"Technically Wrong"もこのようなトレンドの中から生まれた書籍です。

Technically Wrong: Sexist Apps, Biased Algorithms, and Other Threats of Toxic Tech

Technically Wrong: Sexist Apps, Biased Algorithms, and Other Threats of Toxic Tech

 
悲劇的なデザイン

悲劇的なデザイン

  • 作者: ジョナサン・シャリアート,シンシア・サヴァール・ソシエ,高崎拓哉
  • 出版社/メーカー: ビー・エヌ・エヌ新社
  • 発売日: 2017/12/27
  • メディア: 単行本
  • この商品を含むブログ (2件) を見る
 

ここでは全てを紹介することはできませんが、特に印象に残ったチャプターを紹介します。

 

組織の問題:テクノロジー企業の大部分を占める「若い白人男子」の文化

FacebookやGoogleといった大企業の開発者やデザイナーの大部分は若い白人男性です。ダイバーシティーに注力していますが、開発やデザイン分野のダイバーシティーに関して実際にはほとんど改善はありません。この辺の問題提起はシリコンバレーの白人男性至上主義を描いたエミリー・チャンの"Brotopia"にも通じるものがありますね。

 

Brotopia: Breaking Up the Boys' Club of Silicon Valley

Brotopia: Breaking Up the Boys' Club of Silicon Valley

 

 

ダイバーシティーの問題に関しては多くの企業も気がついているのだけれど、それを解決できていない。企業側の言い分としてはマイノリティーに人材がいない。「パイプライン」の問題(=企業は採用する気はあるが候補者がいない)なのですが、黒人女性がキャリアフォーラムなどにいっても無視されるというのが現実だそうです。つまり、本当はパイプラインはある(候補者はいる)のに無視する。

また、「若い白人男性」以外に門戸を開いていたとしても、最終的な採用判断には「企業文化適応性 (Culture Fit)」が求められます。既存のカルチャーは「若い白人男性」なので、そこにフィットしない人は採用されません。

採用されたとしても、その意見が採用されるとは限りません。実際の女性向けスマートウォッチ開発プロジェクトで唯一の女性メンバーの意見は全く聞き入れてもらえなかったそうです。きちんとしたUX調査をしてそれを発表しても、「若い白人男性」のステレオタイプの女性の見方とマッチしないために、その調査も採用されなかったそうです。このように実際のニーズではなく、「若い白人男性」のステレオタイプを基準としたデザインが少なくないのが実情なのだそうです。

デザインの問題:狭い視野と狭いデフォルト

ユーザーの視点に立つためにたくさんのデザインツールがあります。しかし、それらのツールを使っても、デザイナーやステークホルダーの視野が狭いと有効には使えません。

ペルソナはUX調査に基づいて代表的なユーザー像を描くことで開発者、デザイナーなど製品開発に関わる人たちがユーザーに共感するためのデザイン手法です。しかし、実際にはペルソナで描かれるユーザー像の範囲は狭く、深く共感することは難しいのが現実です。例えば、生理のトラッキングアプリGlowの開発者は男ばかりでした。ターゲットユーザーはセクシャルにアクティブな妊娠したくないティーン。そのペルソナは理解できますが、実際のユースケースは妊娠したい女性もいます。しかし、男性にはそれが理解できません。

デザイナーの世界では想定しないユーザーをエッジケースと呼びます。しかし、想定するユーザーは「若い白人男性」が想像できる範囲内です。そして、それ以外はエッジケースとされてしまいます。例えばペルソナで会社のCEOに黒人女性の写真を使うと不採用になります。ステークホルダーにはリアルだと思えない。ニーズや動機が重要であって、見た目は重要ではないのに。ステレオタイプがデフォルトになります。例えばAmazon Alexaの声。アシスタントという言葉は「若い白人男性」には女性を想起させるようです。なぜボイスアシスタントは女性の声なのでしょうか?

この本ではなるべく多くのユーザーのストレスを軽減するために「ストレスケース」の採用を提案しています。

Identify “Stress Cases” and Design with Compassion: Eric Meyer

選択の問題:ユーザーを理解できないためのガベージ・イン

ユーザーを理解してユーザーに最適な提案をする。そのために行動データやプロフィールを集めます。正しい情報を入れれば正しい結果を得ることができますが、間違った情報を入れれば、間違った結果が返ってきます。これを「ガベージ・イン/ガベージ・アウト」と言います。

しかし、実際に正しい情報をユーザーが提供することは難しい場合がります。例えば、アメリカのインディアンはFacebookで本当の名前を使えないことがあります。Facebookの本名のポリシーに適合しないからです。例えばChase Iron Eyes(鉄の目を追う)が本名だとしても、Facebookにとっては偽名になってしまいます。

Facebook: Native American Names 'Inauthentic' | Time

Facebook Name Police: Native American Names Aren’t ‘Authentic’ Enough - IndianCountryToday.com

また、選択の不自由もあります。アメリカの国勢調査では人種の選択は白人/黒人/アジア人/その他です。メキシコ系アメリカ人はこの場合は「白人」なのですが、多くのメキシコ系アメリカ人は「その他」を選んでしまいます。

多くのサービスはユーザーに性別を聞きます。これはセグメンテーションとレコメンデーションなど分析のためなのですが、選択肢は男性/女性しかありません。しかし、トランスジェンダーは?これらもエッジケースとして無視したとして、それで正しいユーザープロフィールになるのかという問題があります。

また、英語の名前だとMrやMsなどタイトルがあります。これもユーザープロフィールの質問でよく聞かれます。これもトランスジェンダーには難しい選択肢ですよね。しかも、英語の場合はDrやSirなどあります。イギリス政府のデザイン機関であるGDSはタイトルの質問をすることをやめました。選択肢を増やすのではなく、不正確な情報しか得られないのであれば聞くのをやめるという選択肢もあるわけです。

Names – GOV.UK Design System

関連記事