2023

Última edição

Em 2023, o Condor Camp aconteceu no Wytham Abbey, em Oxford, na Inglaterra, de 24 a 30 de julho.
Nessa edição, tivemos 17 estudantes universitários altamente talentosos presentes,
que puderam engajar com conteúdos e atividades voltadas para a segurança da Inteligência Artificial.
2022

Primeira edição

Em 2022, o Condor Camp aconteceu no Aranwa Sacred Valley Hotel, em Cusco, no Peru, de 27 de julho a 5 de agosto.
13 estudantes universitários altamente talentosos puderam aprender conteúdos analíticos, filosóficos, organizacionais e criativos,
exercitando suas capacidades de engajamento em busca das soluções para os problemas mais urgentes do mundo.
Abaixo você pode conferir depoimentos de alguns dos nossos participantes.
2022

Palestrantes

Ali Merali



Doutorando em Economia na Yale University. Trabalhou com segurança técnica de IA como Global Priorities Fellow da Forethought Foundation, Oxford University, e como facilitador
do curso Artificial General Intelligence Safety Fundamentals.

Angela Aristizábal

Research Scholar no Future of Humanity Institute, Oxford University. Formada em Psicologia pela Universidad de Los Andes, trabalhou com instituições como Innovations for Poverty Action, Generation Pledge, a Polícia Colombiana, e atualmente, constrói projetos de alto impacto social na América Latina.

Ben Garfinkel



É Diretor em Exercício do Centre for the Governance of AI (GovAI) e Research Fellow do Future of Humanity Institute, Oxford University. Atualmente, é responsável por determinar a direção da organização e supervisionar os pesquisadores.

Fazl Barez



Doutorando em Inteligência Artificial na University of Edinburgh, é também co-fundador do Altruísmo Eficaz Edimburgo e fundador do Edinburgh Alignment and
Safety Hub.

Kuhan Jeyapragasan


Diretor do Stanford Existential Risks Initiative. Mestre em Ciência da Computação, com foco em IA, pela Stanford University. Atualmente, constrói o Altruísmo Eficaz na Stanford University e globalmente com apoio do Center for Effective Altruism.

Linch Zhang

Research Manager na Rethink Priorities trabalhando com pesquisa longotermista. Trabalhou com projetos de forecasting de Covid-19, incluindo superforecasters e pesquisadores de Oxford. Já foi programador na Impossible Foods e no Google, e liderou diversos grupos locais de AE.

Ashwin Acharya

Pesquisador da Rethink Priorities, trabalha com Governança e Estratégia de IA. Anteriormente, trabalhou no Center for Security and Emerging Technology da Georgetown University e no Future of Humanity Institute da Oxford University.

Samuel Marks

Doutorando em Matemática na Harvard University e bacharel em Matemática pela Princeton University. Co-organizador do concurso de previsões ACX. Trabalha com abordagens técnicas para o desenvolvimento de IA segura.

Jan Brauner

Doutorando no Centro para Treinamento Doutoral em Sistemas e Máquinas Inteligentes e Autônomos da Oxford University, financiado pelo Cancer Research UK e pelo Future of Humanity Institute. Pesquisa segurança de IA e suas aplicações à pesquisa biomédica.

PROGRAMAÇÃO

dias 1 e 2

Decision-making

Introdução a técnicas de julgamento e tomada de decisão
Introdução ao pensamento probabilístico
Vieses cognitivos e pensamento estratégico
dias 1 e 2

Decision-making

Introdução a técnicas de julgamento e tomada de decisão
Introdução ao pensamento probabilístico
Vieses cognitivos e pensamento estratégico
dias 3 a 5

Priorização & forecasting

Introdução ao altruísmo eficaz
(por quê e como fazer o maior bem possível?)
Análise de custo-benefício
Áreas de alto impacto
Dia livre com atividades de lazer opcionais
dias 3 a 5

Priorização & forecasting

Introdução ao altruísmo eficaz
(por quê e como fazer o maior bem possível?)
Análise de custo-benefício
Áreas de alto impacto
Dia livre com atividades de lazer opcionais
dias 6 a 8

Futuro de longo prazo

Introdução ao longotermismo
Principais riscos catástroficos e existenciais
Ética populacional
Divisão do grupo em duas especialidades
Trilha 1: Inteligência artificial segura
Trilha 2: Construindo comunidades para moldar o futuro
dias 6 a 8

Futuro de longo prazo

Introdução ao longotermismo
Principais riscos catástroficos e existenciais
Ética populacional
Divisão do grupo em duas especialidades
Trilha 1: Inteligência artificial segura
Trilha 2: Construindo comunidades para moldar o futuro
dias 9 e 10

Carreira & projetos

Introdução à gestão de projetos
Oficina de planejamento de carreira
Elaboração supervisionada de projetos
Apresentação e discussão dos projetos
dias 9 e 10

Carreira & projetos

Introdução à gestão de projetos
Oficina de planejamento de carreira
Elaboração supervisionada de projetos
Apresentação e discussão dos projetos
NOSSOS ALUMNI