2024

Cidade do México, MX

Em 2024, o Condor Camp aconteceu no Hotel Parque México, na Cidade do México, de 10 a 16 de fevereiro.
17 graduandos, mestrandos e doutorandos altamente talentosos  participaram de atividades voltadas
ao alinhamento técnico e governança da Inteligência Artificial, bem como workshops de carreira,
painéis de inspiração, e sprints de pesquisa.
2024

Palestrantes

Javier Prieto


Javier is a Program Associate in at Open Philanthropy in 2021. His work supports Open Phil’s forecasting efforts (led by Benjamin Tereick), which include funding the forecasting ecosystem as well as internal-facing initiatives in foresight and evaluation. He holds a double BSc in Physics and Mathematics. Prior to joining Open Philanthropy,
he interned at CERN and worked as a freelance
“mathy tech person” for two years.

Morgan Simpson

Morgan is currently an AI governance research manager at ERA:AI
and contributes to reports for the Oxford Martin School
AI Governance Initiative. Previously, he held summer research fellowships at GovAI and SERI, established an AI forecasting organization, and authored works on the intersection of international security
and AI policy.

Renan Araújo

Renan runs the IAPS AI Policy Fellowship program and researches the international governance of AI. Renan is also co-founder of Condor Camp. Previously, he worked on global capacity-building for AI governance and safety at Rethink Priorities and did research at the Institute for Law and AI. He’s a lawyer, studied Law at the Federal University of Pernambuco (Brazil) and has a master's degree from the London School of Economics.

Rubi Hudson


Rubi is an Economics PhD student specializing in technical AI safety with a focus on safe predictive models. He leads the Mechanism Design for AI Safety (MDAIS) reading/working group, is a SERI MATS alumnus, and mentors with SPAR.

Yiqin Fu

Yiqin holds a BA in Philosophy, Politics, and Economics from Oxford; worked as a research associate at Yale Law School and was a Summer Research Fellow at GovAI in 2023. Currently pursuing her PhD in Political Science from Stanford. Her research focuses on quantitative methods, causal inference, industrial policy, Chinese innovation, and policy trade-offs in open-source AI.
2023

Oxford, UK

Em 2023, o Condor Camp aconteceu no Wytham Abbey, em Oxford, na Inglaterra, de 24 a 30 de julho.
Nessa edição, tivemos 17 estudantes universitários altamente talentosos presentes,
que puderam engajar com conteúdos e atividades voltadas para a segurança da Inteligência Artificial.
2022

Cusco, Peru

Em 2022, o Condor Camp aconteceu no Aranwa Sacred Valley Hotel, em Cusco, no Peru, de 27 de julho a 5 de agosto.
13 estudantes universitários altamente talentosos puderam aprender conteúdos analíticos, filosóficos, organizacionais e criativos,
exercitando suas capacidades de engajamento em busca das soluções para os problemas mais urgentes do mundo.
Abaixo você pode conferir depoimentos de alguns dos nossos participantes.
2022

Palestrantes

Ali Merali



Doutorando em Economia na Yale University. Trabalhou com segurança técnica de IA como Global Priorities Fellow da Forethought Foundation, Oxford University, e como facilitador
do curso Artificial General Intelligence Safety Fundamentals.

Angela Aristizábal

Research Scholar no Future of Humanity Institute, Oxford University. Formada em Psicologia pela Universidad de Los Andes, trabalhou com instituições como Innovations for Poverty Action, Generation Pledge, a Polícia Colombiana, e atualmente, constrói projetos de alto impacto social na América Latina.

Ben Garfinkel



É Diretor em Exercício do Centre for the Governance of AI (GovAI) e Research Fellow do Future of Humanity Institute, Oxford University. Atualmente, é responsável por determinar a direção da organização e supervisionar os pesquisadores.

Fazl Barez



Doutorando em Inteligência Artificial na University of Edinburgh, é também co-fundador do Altruísmo Eficaz Edimburgo e fundador do Edinburgh Alignment and
Safety Hub.

Kuhan Jeyapragasan


Diretor do Stanford Existential Risks Initiative. Mestre em Ciência da Computação, com foco em IA, pela Stanford University. Atualmente, constrói o Altruísmo Eficaz na Stanford University e globalmente com apoio do Center for Effective Altruism.

Linch Zhang

Research Manager na Rethink Priorities trabalhando com pesquisa longotermista. Trabalhou com projetos de forecasting de Covid-19, incluindo superforecasters e pesquisadores de Oxford. Já foi programador na Impossible Foods e no Google, e liderou diversos grupos locais de AE.

Ashwin Acharya

Pesquisador da Rethink Priorities, trabalha com Governança e Estratégia de IA. Anteriormente, trabalhou no Center for Security and Emerging Technology da Georgetown University e no Future of Humanity Institute da Oxford University.

Samuel Marks

Doutorando em Matemática na Harvard University e bacharel em Matemática pela Princeton University. Co-organizador do concurso de previsões ACX. Trabalha com abordagens técnicas para o desenvolvimento de IA segura.

Jan Brauner

Doutorando no Centro para Treinamento Doutoral em Sistemas e Máquinas Inteligentes e Autônomos da Oxford University, financiado pelo Cancer Research UK e pelo Future of Humanity Institute. Pesquisa segurança de IA e suas aplicações à pesquisa biomédica.

PROGRAMAÇÃO

dias 1 e 2

Decision-making

Introdução a técnicas de julgamento e tomada de decisão
Introdução ao pensamento probabilístico
Vieses cognitivos e pensamento estratégico
dias 1 e 2

Decision-making

Introdução a técnicas de julgamento e tomada de decisão
Introdução ao pensamento probabilístico
Vieses cognitivos e pensamento estratégico
dias 3 a 5

Priorização & forecasting

Introdução ao altruísmo eficaz
(por quê e como fazer o maior bem possível?)
Análise de custo-benefício
Áreas de alto impacto
Dia livre com atividades de lazer opcionais
dias 3 a 5

Priorização & forecasting

Introdução ao altruísmo eficaz
(por quê e como fazer o maior bem possível?)
Análise de custo-benefício
Áreas de alto impacto
Dia livre com atividades de lazer opcionais
dias 6 a 8

Futuro de longo prazo

Introdução ao longotermismo
Principais riscos catástroficos e existenciais
Ética populacional
Divisão do grupo em duas especialidades
Trilha 1: Inteligência artificial segura
Trilha 2: Construindo comunidades para moldar o futuro
dias 6 a 8

Futuro de longo prazo

Introdução ao longotermismo
Principais riscos catástroficos e existenciais
Ética populacional
Divisão do grupo em duas especialidades
Trilha 1: Inteligência artificial segura
Trilha 2: Construindo comunidades para moldar o futuro
dias 9 e 10

Carreira & projetos

Introdução à gestão de projetos
Oficina de planejamento de carreira
Elaboração supervisionada de projetos
Apresentação e discussão dos projetos
dias 9 e 10

Carreira & projetos

Introdução à gestão de projetos
Oficina de planejamento de carreira
Elaboração supervisionada de projetos
Apresentação e discussão dos projetos
NOSSOS ALUMNI