気になった記事。AIで顔を作る。Designed to Deceive

——- 翻訳 ドラフト 荒訳 ——-
実際には存在しない、フェイク・偽の人物を販売するビジネスがあります。
Generated.Photosというウェブサイトでは、「唯一無二で、なおかつトラブルを起こす心配の必要がない」偽の人物を、2.99ドルで購入することができ、1,000人分であれば1,000ドルで購入が可能。
また、何人かの偽の人物が必要な場合、例えばビデオゲームのキャラクターのために、あるいは会社のウェブサイトをより多様性のある人物で彩るためであれば、ThisPersonDoesNotExist.comで無料で写真を入手することもできます。
必要に応じて似顔絵を調整し、老けていたり、若くしていたり、お好みの民族性にしてみてください。偽の人物をアニメーション化したい場合は、Rosebud.AIと呼ばれる会社がそれを行い、しゃべらせることもできます。

情報機関に潜入するために魅力的な顔をしているスパイ、偽のプロフィールや写真などに隠れている右翼のプロパガンダ者、親しみやすい顔でターゲットを荒らしているネット上の嫌がらせ者など、悪意を持った実在の人物の仮面として使われています。

私たちは、さまざまな偽の顔を作り出すことがいかに簡単かを理解するために、独自のA.I.システムを作成しました。

A.I.システムは、それぞれの顔を複雑な数学的数値、つまりシフト可能な値の範囲として捉えています。目の大きさや形を決定する値のように、異なる値を選択することで、イメージ全体を変えることができます。

年齢



パースペクティブ

気分

他の品質については、我々のシステムは異なるアプローチを使用しました。画像の特定の部分を決定する値をシフトするのではなく,システムは最初に2つの画像を生成して,すべての値の開始点と終了点を設定し,その間に画像を作成しました.

ジェンダー

人種・民族

この種の偽物画像の作成は、生成的敵対者ネットワークと呼ばれる新しいタイプの人工知能のおかげで、近年可能になりました。本質的には、コンピュータ・プログラムに実在の人物の写真の束を与えると、コンピュータ・プログラムはそれを研究して自分の写真を考え出そうとします。それを研究して独自の人物の写真を考え出し、システムの別の部分がそれらの写真の中からどれが偽物かを検出しようとする。

このような試行錯誤の結果、最終的には本物と区別がつかなくなってしまうのです。この記事の肖像画は、コンピューターグラフィックス会社のNvidiaが一般公開しているGANソフトウェアを使用してThe Timesが作成したものです。

この進歩のペースを考えると、私たちが偽の友人とパーティーに参加したり、偽の犬と一緒に散歩したり、偽の赤ちゃんを抱いたりしている偽の人々の肖像画だけでなく、その集合体を目の当たりにするようになる、そう遠くない未来を想像することは容易である。オンライン上で誰が本物で誰がコンピュータの想像力の産物なのかを見分けることはますます難しくなるだろう。

"この技術が2014年に初めて登場したときは、ひどいものでした。"と、ソーシャルネットワークの操作を分析することを仕事としているディスインフォメーション・リサーチャーのカミーユ・フランソワ氏は言う。"と、ソーシャルネットワークの操作を分析する仕事をしているディスインフォメーション研究家のカミーユ・フランソワ氏は言う。時間が経てば経つほど検出は難しくなるでしょう」と述べています。

顔の偽造の進歩は、技術が主要な顔の特徴を識別するのに非常に優れているため、一部では可能になっています。自分の顔を使ってスマートフォンのロックを解除したり、写真ソフトに何千枚もの写真を選別して子供の写真だけを表示させたりすることができます。顔認識プログラムは、犯罪容疑者を特定して逮捕するために法執行機関によって使用されている(また、匿名性を維持しようとして名札を隠す警察官の身元を明らかにするために一部の活動家によっても使用されている)。クリアビューAIと呼ばれる会社は、日常のユーザーが何気なくオンラインで共有している数十億枚の公開写真をスクレイピングして、たった1枚の写真から見知らぬ人を認識できるアプリを作成した。この技術は超大国を約束している:以前は不可能だった方法で世界を整理し、処理する能力。

しかし、顔認識アルゴリズムは、他のAIシステムと同様に完璧ではない。訓練に使用されるデータに根本的なバイアスがかかっているため、これらのシステムの中には、例えば有色人種の人を認識するのに適していないものもあります。2015年、Googleが開発した初期の画像検出システムでは、2人の黒人を「ゴリラ」とラベル付けしていましたが、これは、システムが肌の色が黒い人よりもゴリラの写真を多く受信していたためである可能性が高いです。

さらに、顔認識システムの目であるカメラは、肌の黒い人を撮影するのが得意ではありません。この不幸な基準は、フィルム開発の初期の頃にまで遡ります。その結果は深刻なものになりかねません。1月には、デトロイトのロバート・ウィリアムズという黒人男性が、顔認識の照合が間違っていたために、犯してもいない罪で逮捕されました。

人工知能は私たちの生活を楽にすることができますが、最終的には私たちと同じように欠陥があり、それは私たちがすべての背後にいるからです。人間は人工知能システムがどのように作られるか、そしてどのようなデータにさらされるかを選択します。私たちはバーチャルアシスタントに聞こえるように教える声を選択しているため、これらのシステムは訛りのある人を理解できません。私たちは、人間の犯罪行動を予測するコンピュータプログラムを設計しています。

There are now businesses that sell fake people. On the website Generated.Photos, you can buy a “unique, worry-free” fake person for $2.99, or 1,000 people for $1,000. If you just need a couple of fake people — for characters in a video game, or to make your company website appear more diverse — you can get their photos for free on ThisPersonDoesNotExist.com. Adjust their likeness as needed; make them old or young or the ethnicity of your choosing. If you want your fake person animated, a company called Rosebud.AI can do that and can even make them talk.

These simulated people are starting to show up around the internet, used as masks by real people with nefarious intent: spies who don an attractive face in an effort to infiltrate the intelligence community; right-wing propagandists who hide behind fake profiles, photo and all; online harassers who troll their targets with a friendly visage.

We created our own A.I. system to understand how easy it is to generate different fake faces.

The A.I. system sees each face as a complex mathematical figure, a range of values that can be shifted. Choosing different values — like those that determine the size and shape of eyes — can alter the whole image.

Age

Eyes

Perspective

Mood

For other qualities, our system used a different approach. Instead of shifting values that determine specific parts of the image, the system first generated two images to establish starting and end points for all of the values, and then created images in between.

Gender

Race and Ethnicity

The creation of these types of fake images only became possible in recent years thanks to a new type of artificial intelligence called a generative adversarial network. In essence, you feed a computer program a bunch of photos of real people. It studies them and tries to come up with its own photos of people, while another part of the system tries to detect which of those photos are fake.

The back-and-forth makes the end product ever more indistinguishable from the real thing. The portraits in this story were created by The Times using GAN software that was made publicly available by the computer graphics company Nvidia.

Given the pace of improvement, it’s easy to imagine a not-so-distant future in which we are confronted with not just single portraits of fake people but whole collections of them — at a party with fake friends, hanging out with their fake dogs, holding their fake babies. It will become increasingly difficult to tell who is real online and who is a figment of a computer’s imagination.

“When the tech first appeared in 2014, it was bad — it looked like the Sims,” said Camille François, a disinformation researcher whose job is to analyze manipulation of social networks. “It’s a reminder of how quickly the technology can evolve. Detection will only get harder over time.”

Advances in facial fakery have been made possible in part because technology has become so much better at identifying key facial features. You can use your face to unlock your smartphone, or tell your photo software to sort through your thousands of pictures and show you only those of your child. Facial recognition programs are used by law enforcement to identify and arrest criminal suspects (and also by some activists to reveal the identities of police officers who cover their name tags in an attempt to remain anonymous). A company called Clearview AI scraped the web of billions of public photos — casually shared online by everyday users — to create an app capable of recognizing a stranger from just one photo. The technology promises superpowers: the ability to organize and process the world in a way that wasn’t possible before.

But facial-recognition algorithms, like other A.I. systems, are not perfect. Thanks to underlying bias in the data used to train them, some of these systems are not as good, for instance, at recognizing people of color. In 2015, an early image-detection system developed by Google labeled two Black people as “gorillas,” most likely because the system had been fed many more photos of gorillas than of people with dark skin.

Moreover, cameras — the eyes of facial-recognition systems — are not as good at capturing people with dark skin; that unfortunate standard dates to the early days of film development, when photos were calibrated to best show the faces of light-skinned people. The consequences can be severe. In January, a Black man in Detroit named Robert Williams was arrested for a crime he did not commit because of an incorrect facial-recognition match.

Artificial intelligence can make our lives easier, but ultimately it is as flawed as we are, because we are behind all of it. Humans choose how A.I. systems are made and what data they are exposed to. We choose the voices that teach virtual assistants to hear, leading these systems not to understand people with accents. We design a computer program to predict a person’s criminal behavior by feeding it data about past rulings made by human judges — and in the process baking in those judges’ biases. We label the images that train computers to see; they then associate glasses with “dweebs” or “nerds.”

You can spot some of the mistakes and patterns we found that our A.I. system repeated when it was conjuring fake faces.




Fashion accessories can cause problems.
Earrings, for example, might look similar but often may not exactly match.
GANs typically train on real photographs that have been centered, scaled and cropped.
As a result, each eye may be the same distance from the center.
Glasses are common accessories in many of the fake pictures.
They tend to have thin frames, with end pieces that may not match.
Most of us don’t have perfectly symmetrical features, and the system is good at recreating them.
But as a result, it can produce deep indentations in one ear that may not be present in the other.
Then there are odder artifacts that can appear out of nowhere.
Most often they’re only in one part of the image, but if you look closely enough, it’s hard to unsee it.
Sometimes, the clues about whether an image is fake aren’t in a person’s features.
Abstract or blurry backgrounds are often giveaways.
Humans err, of course: We overlook or glaze past the flaws in these systems, all too quick to trust that computers are hyper-rational, objective, always right. Studies have shown that, in situations where humans and computers must cooperate to make a decision — to identify fingerprints or human faces — people consistently made the wrong identification when a computer nudged them to do so. In the early days of dashboard GPS systems, drivers famously followed the devices’ directions to a fault, sending cars into lakes, off cliffs and into trees.

Is this humility or hubris? Do we place too little value in human intelligence — or do we overrate it, assuming we are so smart that we can create things smarter still?

The algorithms of Google and Bing sort the world’s knowledge for us. Facebook’s newsfeed filters the updates from our social circles and decides which are important enough to show us. With self-driving features in cars, we are putting our safety in the hands (and eyes) of software. We place a lot of trust in these systems, but they can be as fallible as us.



More Articles on Artificial Intelligence:

Training Facial Recognition on Some New Furry Friends: Bears

Antibodies Good. Machine-Made Molecules Better?

These Algorithms Could Bring an End to the World’s Deadliest Killer

Note: A pre-trained version of Nvidia's StyleGAN2 package, implemented in TensorFlow, was used to generate the images for this story. The networks trained on the Flickr-Faces-HQ dataset, which included over 70,000 photographs of people. Improvements to the original StyleGAN architecture by Karras et. al.


More in Science
An infrared image mosaic of the Elysium Mons volcano taken by the Mars Odyssey spacecraft in 2001.
NASA/JPL-Caltech/Arizona State University
Signs of Recent Volcanic Eruption on Mars Hint at Habitats for Life
Nov. 20
Scientists say the increase in great white sharks off California is partially a result of climate change, which is pushing them, especially juveniles, north.
When Sharks Turned Up at Their Beach, They Called in Drones
Nov. 20
Continue reading the main story
ADVERTISEMENT
Continue reading the main story
Site Index
Site Information Navigation
© 2020 The New York Times Company
NYTCoContact UsWork with usAdvertiseT Brand StudioYour Ad ChoicesPrivacy PolicyTerms of ServiceTerms of SaleSite MapCanadaInternationalHelpSubscriptions
Access more of The Times by creating a free account or logging in.
Access more for free.

よろしければサポートお願いできれば嬉しいです。😄