O que significa manter a sabedoria antes de avançar rapidamente na tecnologia? Neste episódio da conversa de hoje, Max Tegmark, professor e pesquisador de IA do MIT e co-fundador do Future of Life Institute, explora a questão urgente de como a sociedade pode garantir que a inteligência artificial seja capacitada-em vez de apagaros-florescer humanos.
Neste episódio, Max Tegmark Junta -se Nae Presidente Walter Kim Para descompactar as profundas oportunidades e riscos alarmantes representados pela IA. Com analogias vívidas, lições históricas e exemplos do mundo real, eles examinam por que as apostas para a sabedoria, a previsão e a coragem moral nunca foram mais altas.
Na conversa deles, eles discutem:
- Por que a sabedoria deve ficar à frente do poder da tecnologia – e o que acontece quando não;
- Como os sucessos passados em engenharia de segurança, como airbags e o FDA, oferecem um roteiro para o desenvolvimento responsável da IA;
- A necessidade urgente de comunidades religiosas levantarem a IA como uma questão moral, não apenas técnica; e
- Como a re-central da conversa sobre mordomia e responsabilidade pode mudar as prioridades para o bem comum.
Inscreva -se hoje onde quer que você ouça podcasts.
Você gosta do podcast?
Dê-nos uma classificação de 5 estrelas em Podcasts da Apple e deixe -nos uma revisão. Esta é a melhor maneira de outras pessoas descobrirem essas conversas. Se você ouvir em Spotifydê -nos um seguimento e acerte o sino de notificação para ter certeza de que nunca perde um episódio. E não se esqueça de passar seus episódios favoritos para colegas, amigos e familiares.
Recursos