OpenAI、ChatGPT に自傷行為防止の機能「Trusted Contact」を追加──第三者への自動通知を導入
自傷リスク検知時に登録済みの家族や友人へアラートを送信する仕組みで、AI 応答に起因する事故や法的リスクへの対策を強化した。
リリース: 2026-05-07 · 読了 3 分何が起きた
成人ユーザーが友人や家族を「Trusted Contact」として 1 名登録でき、自傷行為の兆候検知時に自動アラートが送信される。
OpenAI の安全チームが検知から 1 時間以内に人間によるレビューを行い、深刻なリスクと判断した場合のみ通知を実行する。
プライバシー保護のため、通知内容には具体的な会話の詳細は含まれず、安否確認を促すメッセージのみが送られる。
2025年9月に導入された保護者向け通知機能に続くセーフガード拡充であり、現在はオプション設定として提供される。
なぜ重要
LLM の出力がメンタルヘルスに与える影響への法的責任(PL法や過失致死など)が問われ始める中、プラットフォーマーとして実効性のある「介入」の雛形を示した。
単なる定型文の表示から、人間のネットワークを介した物理的なセーフティネット構築へと踏み込んだことで、AI サービスの安全基準が一段階引き上げられた。
👁️ 開発者
B2C 向けチャットボットを開発するエンジニアは、機微な発言に対する「定型文回答」以上のリスク管理実装(人間によるレビューフローや緊急連絡先連携)を検討する際の参照モデルとなる。
🇯🇵 日本
[国内 SNS・メンタルヘルス支援 SaaS] などのサービス提供者は、ユーザーのプライバシー保護と生命保護のトレードオフにおいて、OpenAI の「詳細は伏せて通知する」設計を UI/UX の標準として採用する動きが出る。