*** English follows Japanese ***
午後のひととき、形式にとらわれない気軽な会話を楽しみませんか。コーヒー、スナック、プロンプトを用意し、新しいアイデアについて新鮮な顔ぶれと話すことができるようにします.
AIによる絶滅のリスクを軽減することは、パンデミックや核戦争といった他の社会的規模のリスクと並んで、世界的な優先事項であるべきです。
多くの著名な科学者(Geoffrey Hinton、、...)や業界リーダー(DeepMind、OpenAI、Anthropic、...のCEO)がこの声明に署名しています。
まず、Centre for AI Safetyの背景と声明の背景を説明する短い講義行います。そして、上記の著名な署名者について、署名の理由を説明します。
講義の後は、ディスカッションとネットワーキングの場とし、以下のようなテーマでゆるやかに進めていきます:
AIリスクを防ぐために、政府は現在どのような取り組みを行っていますか?
AIリスク?
パンデミック(伝染病)?
核戦争?
これらのリスクを軽減するために、私たちはさらに何をすることができるのか?
AIによる実存的リスクは、優先順位が低いのか、過剰なのか、それとも妥当なのか?
Join us for an afternoon of mostly unstructured casual conversation. We’ll provide coffee, snacks and prompts, to get you talking to some fresh faces about new ideas.
Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.
Many renowned scientists (Geoffrey Hinton, Yoshua Bengio, …) and industry leaders (CEOs of DeepMind, OpenAI, Anthropic, …) have signed this statement.
We’ll start with a short presentation giving background on the Centre for AI Safety and the context for the statement. We’ll look at the big-name signatories above and give their reasons for signing.
After the presentation we’ll open the floor to discussion and networking, loosely guided around the following prompts:
What are governments currently doing to prevent…
AI risk?
Pandemics?
Nuclear War?
What more could we be doing to mitigate those risks?
Is existential risk from AI under-prioritised, over-prioritised, or about right?