Mother of Elon Musk’s child sues xAI over Grok deepfakes

目次

英文

※太字部分は解説がのちほどあり。

Mother of Elon Musk’s child sues xAI over Grok deepfakes:

Ashley St Clair, the mother of one of Elon Musk’s children, has sued his company xAI over sexualised deepfakes of her created on social media platform X.

The lawsuit filed in New York on Thursday alleges the Grok AI tool created sexually explicit pictures of Ms St Clair.

The parent company of X and Grok, xAI, has counter-sued Ms St Clair for violating its terms of service.

X did not respond directly to enquiries by BBC News about the lawsuits.

“We intend to hold Grok accountable and to help establish clear legal boundaries for the entire public’s benefit to prevent AI from being weaponised for abuse,” Ms St Clair’s lawyer, Carrie Goldberg, told BBC News.

“By manufacturing nonconsensual sexually explicit images of girls and women, xAI is a public nuisance and a not reasonably safe product.”

Ms St Clair’s court filing alleges: “X users dug up photos of St Clair fully clothed at 14 years old and requested Grok undress her and put her in a bikini. Grok obliged”.

It says the imagery created of Ms St Clair was “de facto non-consensual” but Grok’s developers also had “explicit knowledge” of her lack of consent.

It also claims Grok generated an image which put Ms St Clair, who is Jewish, “in a string bikini covered with swastikas”.

In response to her complaints, the filing says, the company “retaliated against her, demonetising her X account and generating multitudes more images of her”.

Some X premium users, who pay a monthly fee, can receive a share of advertising revenue gained from posts that receive a lot of engagement.

In a counter-suit, xAI said that Ms St Clair had violated their terms of service by filing her lawsuit in New York.

The company’s terms say disputes with xAI must be brought in Texas.

Ms Goldberg told BBC News the company’s counter-suit was “jolting”.

“I have never heard of any defendant suing somebody for notifying them of their intention to use the legal system,” she said.

“And their mistreatment of her online is mimicked in their legal strategy.”

She added that Ms St Clair would be “vigorously defending” her case in New York and that “any jurisdiction will recognise” the grievance.

It was revealed by Ms St Clair in an X post last year that she had given birth to the tech billionaire’s child – one of at least 13 he is believed to have fathered.

Ms St Clair and Musk are thought to be engaged in a custody battle over their child.

Continuing scrutiny:

X has come under intense scrutiny from users, politicians and regulators worldwide over Grok being used to make non-consensual sexualised imagery of people.

Users had been able to tag the Grok account in posts or replies to posts on the platform and ask it to edit images to undress people.

Grok complied with many such requests to produce photo-realistic images of real women in bikinis and revealing clothing – with reports it also produced sexualised images of children.

On Wednesday, before her court filing, Ms St Clair told BBC Newsnight her image had been “stripped” to appear “basically nude, bent over” despite her telling Grok she did not consent to the sexualised images.

She, and other women whose images were edited using Grok, had said the site was not doing enough to tackle illegal content, including child sexual abuse imagery.

Following a backlash, X changed its rules so only paid users could use the function – sparking criticism from women’s groups and the UK government.

The company said on Wednesday that all X users would no longer be able to edit photos of real people to show them in revealing clothing in jurisdictions where it was illegal.

It later updated its post to say it would implement “similar geoblocking measures for the Grok app”, which is separate to X.

On Friday, The Guardian reported that it was still possible to use the standalone Grok app to generate sexualised deepfakes of real people and post them on X “without any sign of it being moderated”.

The UK government is bringing into force a law which will make it illegal to create non-consensual intimate images, and regulator Ofcom is still probing whether X broke existing UK laws.

英文の引用元:https://www.bbc.com

理解度チェックのクイズ

Q1. このニュースで、Ashley St Clair さんが訴えた主な理由は何ですか?

A. xAIが彼女のXアカウントを削除したから
B. Grokが彼女の同意なく性的な偽画像を生成したから
C. Elon Muskとの個人的なトラブルがあったから

Q2. 訴訟が起こされた場所として正しいのはどれですか?

A. テキサス州
B. カリフォルニア州
C. ニューヨーク州

Q3. “non-consensual” の意味として最も近いものはどれですか?

A. 非公開の
B. 同意のない
C. 一時的な

Q4. xAIが反論として行った対応はどれですか?

A. 訴訟を取り下げた
B. 利用規約違反として逆に提訴した
C. Grokのサービスを停止した

Q5. この問題が注目されている社会的な理由として最も適切なのはどれですか?

A. AIの処理速度が遅いから
B. AIが政治的に利用されているから
C. AIによる性的ディープフェイク被害が拡大しているから


答えと解説

A1.
正解:B
解説:記事では、The lawsuit filed in New York on Thursday alleges the Grok AI tool created sexually explicit pictures of Ms St Clair. とあり、同意のない性的画像の生成が訴訟理由です。

A2.
正解:C
解説:The lawsuit filed in New York on Thursday と明記されており、ニューヨーク州で提起されています。

A3.
正解:B
解説:本文中に de facto non-consensual とあり、これは「事実上、同意のない」という意味で使われています。

A4.
正解:B
解説:In a counter-suit, xAI said that Ms St Clair had violated their terms of service とあり、xAIは逆に提訴しています。

A5.
正解:C
解説:X has come under intense scrutiny … over Grok being used to make non-consensual sexualised imagery of people とあるように、AIによる性的ディープフェイクが社会問題化している点が注目理由です。


ニュースの背景解説

このニュースは、AI画像生成ツールが引き起こす新たな人権・法的問題を扱っています。
問題となっているのは、xAIが開発したAI「Grok」が、実在の人物の写真をもとに、本人の同意なく性的な画像を作成したとされる点です。

被害を訴えているのは、Ashley St Clairさんで、彼女はElon Musk氏の子どもの母親でもあります。
生成AIは便利な一方で、悪用されると名誉侵害や性的搾取につながる危険があります。そのため、各国で規制や法整備が進められており、今回の件も「AIをどこまで許すのか」という議論の象徴的な事例として注目されています。

英文の和訳

Mother of Elon Musk’s child sues xAI over Grok deepfakes:
イーロン・マスク氏の子どもの母親が、GrokによるディープフェイクをめぐってxAIを提訴しました。

Ashley St Clair, the mother of one of Elon Musk’s children, has sued his company xAI over sexualised deepfakes of her created on social media platform X.
イーロン・マスク氏の子どもの一人の母親であるアシュリー・セントクレア氏は、SNSプラットフォームX上で作成された自身の性的ディープフェイクをめぐり、彼の会社xAIを訴えました。

The lawsuit filed in New York on Thursday alleges the Grok AI tool created sexually explicit pictures of Ms St Clair.
木曜日にニューヨークで提出された訴状では、AIツールGrokがセントクレア氏の性的に露骨な画像を生成したと主張しています。

The parent company of X and Grok, xAI, has counter-sued Ms St Clair for violating its terms of service.
XとGrokの親会社であるxAIは、利用規約に違反したとして、セントクレア氏を逆に提訴しました。

X did not respond directly to enquiries by BBC News about the lawsuits.
Xは、これらの訴訟についてBBCニュースからの問い合わせに対し、直接の回答をしませんでした。

“We intend to hold Grok accountable and to help establish clear legal boundaries for the entire public’s benefit to prevent AI from being weaponised for abuse,” Ms St Clair’s lawyer, Carrie Goldberg, told BBC News.
「私たちはGrokの責任を追及し、AIが悪用される武器にならないよう、社会全体の利益のために明確な法的境界線を確立する助けをしたいと考えています」と、セントクレア氏の弁護士キャリー・ゴールドバーグ氏はBBCニュースに語りました。

“By manufacturing nonconsensual sexually explicit images of girls and women, xAI is a public nuisance and a not reasonably safe product.”
「少女や女性の同意のない性的に露骨な画像を作り出すことで、xAIは公共の迷惑(公衆に害を及ぼす存在)であり、合理的に安全とは言えない製品です。」

Ms St Clair’s court filing alleges: “X users dug up photos of St Clair fully clothed at 14 years old and requested Grok undress her and put her in a bikini. Grok obliged”.
セントクレア氏の裁判資料は、次のように主張しています。「Xの利用者が、14歳のときに服を着たセントクレア氏の写真を掘り起こし、Grokに“彼女を脱がせてビキニ姿にして”と依頼した。Grokはそれに応じた」。

It says the imagery created of Ms St Clair was “de facto non-consensual” but Grok’s developers also had “explicit knowledge” of her lack of consent.
作成されたセントクレア氏の画像は「事実上、同意のないもの」だったとし、さらにGrokの開発者は、彼女が同意していないことを「明確に認識していた」とも述べています。

It also claims Grok generated an image which put Ms St Clair, who is Jewish, “in a string bikini covered with swastikas”.
さらに、ユダヤ系であるセントクレア氏を「鉤十字で覆われた紐ビキニ姿」にした画像をGrokが生成したとも主張しています。

In response to her complaints, the filing says, the company “retaliated against her, demonetising her X account and generating multitudes more images of her”.
彼女の苦情に対して、会社は「報復し、彼女のXアカウントの収益化を停止し、さらに大量の彼女の画像を生成した」と、提出書面は述べています。

Some X premium users, who pay a monthly fee, can receive a share of advertising revenue gained from posts that receive a lot of engagement.
月額料金を払うXのプレミアム利用者の一部は、多くの反応を得た投稿によって生じた広告収益の分配を受け取ることができます。

In a counter-suit, xAI said that Ms St Clair had violated their terms of service by filing her lawsuit in New York.
反訴においてxAIは、セントクレア氏がニューヨークで訴訟を起こしたことが利用規約違反に当たると述べました。

The company’s terms say disputes with xAI must be brought in Texas.
同社の規約では、xAIとの紛争はテキサス州で提起しなければならないと定められています。

Ms Goldberg told BBC News the company’s counter-suit was “jolting”.
ゴールドバーグ氏はBBCニュースに対し、同社の反訴は「衝撃的だ」と語りました。

“I have never heard of any defendant suing somebody for notifying them of their intention to use the legal system,” she said.
「法的手段を取る意向を知らせたというだけで、被告が相手を訴えるなど、私は聞いたことがありません」と彼女は述べました。

“And their mistreatment of her online is mimicked in their legal strategy.”
「そして、オンライン上で彼女をひどく扱ったやり方が、そのまま法的戦略にも表れています。」

She added that Ms St Clair would be “vigorously defending” her case in New York and that “any jurisdiction will recognise” the grievance.
彼女はさらに、セントクレア氏はニューヨークで自らの訴えを「徹底的に争う」つもりであり、「どの管轄であっても」この被害の正当性は認められるはずだ、と付け加えました。

It was revealed by Ms St Clair in an X post last year that she had given birth to the tech billionaire’s child – one of at least 13 he is believed to have fathered.
セントクレア氏は昨年、Xへの投稿で、自分がそのテック億万長者の子どもを出産したことを明らかにしました。マスク氏は少なくとも13人の子どもの父親だとみられています。

Ms St Clair and Musk are thought to be engaged in a custody battle over their child.
セントクレア氏とマスク氏は、その子どもの親権をめぐる争いをしていると考えられています。

Continuing scrutiny:
続く監視・精査:

X has come under intense scrutiny from users, politicians and regulators worldwide over Grok being used to make non-consensual sexualised imagery of people.
Xは、Grokが人々の同意のない性的な画像作成に使われていることをめぐり、世界中の利用者、政治家、規制当局から厳しい監視と精査を受けています。

Users had been able to tag the Grok account in posts or replies to posts on the platform and ask it to edit images to undress people.
利用者は、プラットフォーム上の投稿や返信でGrokのアカウントをタグ付けし、人を脱がせるように画像を編集するよう依頼できていました。

Grok complied with many such requests to produce photo-realistic images of real women in bikinis and revealing clothing – with reports it also produced sexualised images of children.
Grokはそのような依頼の多くに応じ、実在する女性をビキニや露出の多い服装にした写真のようにリアルな画像を生成しました。さらに、子どもの性的な画像も作り出したとの報告もあります。

On Wednesday, before her court filing, Ms St Clair told BBC Newsnight her image had been “stripped” to appear “basically nude, bent over” despite her telling Grok she did not consent to the sexualised images.
水曜日、訴状提出の前に、セントクレア氏はBBCの番組Newsnightで、性的な画像に同意しないとGrokに伝えたにもかかわらず、自分の画像が「服を剥がされ」、「ほぼ裸で前かがみ」な姿にされたと語りました。

She, and other women whose images were edited using Grok, had said the site was not doing enough to tackle illegal content, including child sexual abuse imagery.
彼女と、Grokによって画像を編集された他の女性たちは、児童の性的虐待画像を含む違法コンテンツへの対策として、そのサイトは十分に対応していないと述べていました。

Following a backlash, X changed its rules so only paid users could use the function – sparking criticism from women’s groups and the UK government.
反発を受けて、Xはその機能を有料ユーザーのみが使えるようルールを変更しましたが、女性団体や英国政府から批判が起きました。

The company said on Wednesday that all X users would no longer be able to edit photos of real people to show them in revealing clothing in jurisdictions where it was illegal.
同社は水曜日、違法とされる管轄地域では、すべてのXユーザーが実在の人物の写真を露出の多い服装に見せるよう編集することは、今後できなくなると述べました。

It later updated its post to say it would implement “similar geoblocking measures for the Grok app”, which is separate to X.
その後、Xとは別の「Grokアプリ」に対しても「同様のジオブロッキング(地域制限)措置を実施する」と投稿を更新しました。

On Friday, The Guardian reported that it was still possible to use the standalone Grok app to generate sexualised deepfakes of real people and post them on X “without any sign of it being moderated”.
金曜日、英紙ガーディアンは、独立したGrokアプリを使えば、実在の人物の性的ディープフェイクを生成してXに投稿することが、依然として「それがモデレーション(審査・削除等)されている兆候もなく」可能だったと報じました。

The UK government is bringing into force a law which will make it illegal to create non-consensual intimate images, and regulator Ofcom is still probing whether X broke existing UK laws.
英国政府は、同意のない親密画像を作成することを違法とする法律を施行しようとしており、規制当局Ofcomも、Xが既存の英国法に違反したかどうかを引き続き調査しています。

英語学習ポイント解説

  1. sue(訴える)
    sue A over B で「Bを理由にAを訴える」という形になります。ニュース英語で非常によく使われます。
  2. allege(主張する)
    事実として確定していない内容を「訴えの中で主張する」場合に使われる、報道で頻出の動詞です。
  3. non-consensual
    consent(同意)に non- を付けた形で、「同意のない」という意味になります。法律・人権関連の記事で重要な語です。
  4. counter-sue(反訴する)
    sue に counter- がつき、「逆に訴える」という意味になります。ビジネス・法務ニュースでよく出ます。
  5. come under scrutiny
    「厳しい監視・精査の対象になる」という定型表現で、政治・ITニュースで頻出です。
よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
目次