CONSULTAR DISPONIBILIDADE

CONTATO

Para consultas de data, propostas comerciais, ou para elogios ou até mesmo reclamações, pode preencher o formulário:

CONTACT FORM

In order to check Andrea's agenda and get a quote for an event, or even to just get in touch with him - please use the form below.

CONTACTO

Para consultas de fechas, propuestas comerciales, para felicitaciones o hasta quejas, puede llenar el siguiente formulario

CHECK AVAILABILITY

CONTATO

Para consultas de data, propostas comerciais, ou para elogios ou até mesmo reclamações, pode preencher o formulário:

CONTACT FORM

In order to check Andrea's agenda and get a quote for an event, or even to just get in touch with him - please use the form below.

CONTACTO

Para consultas de fechas, propuestas comerciales, para felicitaciones o hasta quejas, puede llenar el siguiente formulario

CONSULTAR DISPONIBILIDAD

CONTATO

Para consultas de data, propostas comerciais, ou para elogios ou até mesmo reclamações, pode preencher o formulário:

CONTACT FORM

In order to check Andrea's agenda and get a quote for an event, or even to just get in touch with him - please use the form below.

CONTACTO

Para consultas de fechas, propuestas comerciales, para felicitaciones o hasta quejas, puede llenar el siguiente formulario

CONSULTAR DISPONIBILIDADE

CONTATO

Para consultas de data, propostas comerciais, ou para elogios ou até mesmo reclamações, pode preencher o formulário:

CONTACT FORM

In order to check Andrea's agenda and get a quote for an event, or even to just get in touch with him - please use the form below.

CONTACTO

Para consultas de fechas, propuestas comerciales, para felicitaciones o hasta quejas, puede llenar el siguiente formulario

CHECK AVAILABILITY

CONTATO

Para consultas de data, propostas comerciais, ou para elogios ou até mesmo reclamações, pode preencher o formulário:

CONTACT FORM

In order to check Andrea's agenda and get a quote for an event, or even to just get in touch with him - please use the form below.

CONTACTO

Para consultas de fechas, propuestas comerciales, para felicitaciones o hasta quejas, puede llenar el siguiente formulario

CONSULTAR DISPONIBILIDAD

CONTATO

Para consultas de data, propostas comerciais, ou para elogios ou até mesmo reclamações, pode preencher o formulário:

CONTACT FORM

In order to check Andrea's agenda and get a quote for an event, or even to just get in touch with him - please use the form below.

CONTACTO

Para consultas de fechas, propuestas comerciales, para felicitaciones o hasta quejas, puede llenar el siguiente formulario


Sabia que 50% de pesquisadores de IA no mundo acham que existe uma probabilidade superior a 10% de que a humanidade possa ser extinta pela Inteligência Artificial, devido a nossa incapacidade de controlá-la? Bom, esse número é assustador, e vindo de experts do tema, deveria soar como uma campainha de alarme.

Mas o que é interessante da IA é que mesmo que nós tenhamos consciência sobre seus riscos, eles são tão intangíveis, ao ponto que mesmo que nossa mente se esforce para imaginar os cenários de impacto  negativo da IA, ela volta rapidamente a seu formato anterior. Ou seja, esse entendimento fica um pouco igual a ideia de como um elástico funciona. E é por isso que o pesquisador Tristan Harris, ex colaborador do Facebook que se tornou famoso pelo documentário "The Social Dilemma", e fundador do Center for Human Technology, chama esse efeito "temporário" de efeito elástico, e ele nos chama a atenção a não cair vítima dele e entender o que é preciso para que a IA não acabe com a humanidade.

Mas, o que fazer para a IA não acabar com a humanidade? E é disso que nos fala justamente Tristan Harris, ex-colaborador do Facebook e fundador do Center for Human Technology. Veja só no vídeo abaixo:

(Não se esqueça de ativar as legendas do YouTube.)

 “A sensação que tive pessoalmente, só para compartilhar, é que é como em 1944, e você recebe uma ligação de Robert Oppenheimer, que está nesse projeto chamado de The Manhattan Project - você não tem ideia do que é - e ele diz: "O mundo está prestes a mudar de forma fundamental, exceto pelo fato de que o que está sendo implantado não está sendo implantado de forma segura e responsável, mas de uma forma muito perigosa”.

Durante uma entrevista em março para a ABC News, o CEO da OpenAI, Sam Altman, foi questionado se o Chat GPT tinha um kill switch, ou "interruptor de desligamento" caso a IA se tornasse má. Altman respondeu com um rápido "sim".

Ele acrescentou: "O que realmente acontece é que qualquer engenheiro pode simplesmente dizer que vamos desabilitar isso por enquanto. Ou vamos implantar essa nova versão do modelo”. O problema é que o historiador Yuval Harari, não concordou.

Ele diz que quando você produz essas ferramentas, desde que não as libere na esfera pública, você pode ter todos os tipos de interruptores/ "Mas uma vez que você os libera na esfera pública, as pessoas começam a depender deles para seu sustento, para suas relações sociais, para sua política. É tarde demais. Você não pode puxar o interruptor porque o interruptor causará o colapso econômico."

E eu adorei essa analogia porque é a mesma situação da Internet hoje: pense bem, se você por um dia pausar a Internet, porque ela se torna “má” (obviamente sabemos que isso não pode acontecer com a Internet pois ela é neutra, mas poderia acontecer com a IA), o mundo vai parar de funcionar. Não é? Ou você não teve um monte de problemas naqueles dias em que o Whatsapp ficava fora do ar, não é? 

Então entendemos que isso não é possível, e que o Harari talvez tenha razão.

De acordo com Harari, as recentes revoluções tecnológicas exacerbaram as disparidades sociais e levaram a turbulências políticas. No entanto, ele disse que esses problemas  "não são nada" em comparação com o que pode esperar da sociedade nos próximos anos. 

Ele diz que se não cuidarmos disso, algumas pessoas se tornarão extremamente ricas e poderosas porque controlam as novas ferramentas e outras pessoas poderão se tornar parte de uma nova 'classe inútil'. Ele usa essa linguagem muito forte de uma classe inútil, até pra evitar que aconteça o mesmo efeito elástico descrito acima. Obviamente, as pessoas nunca são inúteis do ponto de vista de sua família, amigos ou comunidade, mas do ponto de vista do sistema econômico, elas podem se tornar, não precisamos delas. Elas não têm mais as habilidades de que precisamos.

Harari descreveu a possibilidade como um "perigo terrível", o que destacou a necessidade de proteger as pessoas antes que seja tarde demais.

Elon Musk, Steve Wozniak, Harari e outros líderes de tecnologia assinaram uma carta em março pedindo aos desenvolvedores de IA que “pausassem imediatamente por pelo menos seis meses o treinamento de sistemas de IA mais poderosos que o GPT-4”. 

O ponto é que o Harari não quer interromper o desenvolvimento de toda a IA, mas pede uma pausa no lançamento de ferramentas de IA extremamente poderosas para a esfera pública.

Ele comparou sua opinião sobre IA ao desenvolvimento de um novo medicamento, em que a lei e os padrões médicos obrigam uma empresa a passar por uma rigorosa verificação de segurança para determinar a segurança do produto a curto e longo prazo. Na indústria farmacêutica é assim!

O que você diria se tivesse laboratórios de biotecnologia projetando novos vírus e apenas liberando eles para a esfera pública simplesmente para impressionar seus acionistas com suas capacidades aprimoradas e aumentar o valor de suas ações. Nós diríamos que isso é absolutamente louco, irresponsável e que essas pessoas deveriam estar na cadeia.

O problema é que Harari acredita que a IA tem potencial para ser "muito mais poderosa" do que qualquer vírus e expressou preocupação de que os pesquisadores desenvolvam essas ferramentas extremamente poderosas e as liberem rapidamente sem verificações de segurança.

E assim como o Tristan Harris, essa situação toda me lembra a analogia com a energia nuclear. A verdade é que a preocupação, como Edward Teller via, era literalmente o fim do mundo. Ele havia feito os cálculos e havia uma possibilidade real, disse ele a seus colegas do Projeto Manhattan em 1942, de que, quando detonassem a primeira bomba nuclear do mundo, a explosão desencadearia uma reação em cadeia. A atmosfera iria pegar fogo. Toda a vida na Terra seria incinerada. Alguns dos colegas de Teller rejeitaram a ideia, mas outros não. Se houvesse a menor possibilidade de ignição atmosférica, disse Arthur Compton, diretor de um laboratório do Projeto Manhattan em Chicago, todo o trabalho na bomba deveria ser interrompido. 

Será que isso lembra um pouco da discussão entre os experts de hoje? Com certeza.

Só que na verdade, a IA não é como nenhuma ferramenta na história da humanidade. Todas as ferramentas anteriores da história da humanidade que inventamos nos deram poder porque as decisões sobre como usar as ferramentas sempre permaneceram nas mãos humanas. Se você inventar uma faca, decide se a usará para matar alguém ou para salvar sua vida em sala de cirurgia ou para cortar salada. A faca não decide.

Por isso que, porém, voltando à analogia da bomba atômica, Yuval Harari até  comparou a IA ao rádio ou à bomba atômica. O rádio não decide o que transmitir e uma arma nuclear não determina seu alvo de bombardeio. Sempre há um elemento humano, enquanto a IA é a “primeira ferramenta na história da humanidade” que pode tomar decisões por si mesma, sobre seu próprio uso e sobre a vida.

O que fazer então? É tudo negativo mesmo? Na verdade não: A IA pode nos ajudar a ter melhores cuidados de saúde, tratar o câncer e ajudar a humanidade a resolver uma variedade de problemas. Quais podem ser umas medidas de prevenção então? 

Primeiro, combater a desinformação, e uma das formas mais poderosas para isso é reforçar a necessidade de instituições confiáveis. No mundo moderno de hoje, vários indivíduos e empresas podem escrever qualquer coisa, independentemente de se basear na realidade objetiva. Eles também podem produzir deepfakes, (vídeos falsos de pessoas reais).

Ele também sugeriu mais regulamentações ou leis sobre privacidade de dados. Por exemplo, quando uma pessoa vai ao médico e conta algo muito particular, o médico não pode pegar essa informação e vendê-la por dinheiro a terceiros para usar contra o paciente ou manipulá-lo sem consentimento. A aquisição e as vendas de dados estão entre as formas mais significativas pelas quais as empresas de Big Tech geram lucro. Eles também usam esses dados para selecionar conteúdo e vender produtos aos consumidores. Harari disse que regras semelhantes no campo médico devem ser aplicadas ao campo tecnológico.

"Não podemos confiar nas pessoas que desenvolvem a tecnologia para supervisionar a si mesmas. Elas não representam ninguém", disse Harari. "Nunca votamos neles. Eles não nos representam. O que lhes dá o poder de tomar talvez as decisões mais importantes da história da humanidade?"

Essa é uma pergunta muito importante a se fazer, em cima da qual quero que você pense. 

Quero que você reflita nisso como dever de casa, e me conte.

Qualquer ideia,  dúvida, comentário ou até mesmo reclamação é só entrar em contato pelos site, instagram @andreaioriokeynotes, ou por meu LinkedIn ou Instagram @aiorio_br!

Comentários

Comments

Quer saber mais sobre minhas palestras ou nosso programa de podcasts customizados para ajudar sua empresa?

In order to check Andrea's agenda and get a quote for an event, or even to just get in touch with him - please use the form below.

¿Quiere obtener más información sobre mis charlas o nuestro programa de podcast personalizado para ayudar a su negocio?

Com mais de 200 palestras online e offline em 2021 para clientes no Brasil, América Latina, Estados Unidos e Europa, o Andrea é hoje um dos palestrantes sobre Transformação Digital, Liderança, Inovação e Soft Skills mais requisitados a nível nacional e internacional. Ele já foi diretor do Tinder na América Latina por 5 anos, e Chief Digital Officer na L’Oréal, e hoje é também escritor best-seller e professor do MBA Executivo da Fundação Dom Cabral

With more than 200 keynotes delivered (online and offline) in 2021 to clients across Brazil, Latin America, the United States and Europe, Andrea is today one of the most requested speakers on Digital Transformation, Leadership, Innovation and Soft Skills in Brazil and globally. He has been the head of Tinder in Latin America for 5 years, and Chief Digital Officer at L’Oréal. Today he is also a best-selling author, and a professor at the Executive MBA at Fundação Dom Cabral.

Con más de 150 conferencias online y offline en 2022 para clientes en Brasil, América Latina, Estados Unidos y Europa, Andrea es hoy una de los conferencistas más solicitados sobre Transformación Digital, Liderazgo, Innovación y Soft Skills a nivel nacional e internacional. Fue director de Tinder en América Latina durante 5 años y Chief Digital Officer de L’Oréal Brasil. Es autor de best-sellers y profesor del Executive MBA de La Fundación Dom Cabral, una de las instituciones de mayor prestigio en Brasil.

CONTATO

Para consultas de data, propostas comerciais, ou para elogios ou até mesmo reclamações, pode preencher o formulário abaixo

CONTACTO

Para consultas de fechas, propuestas comerciales, para felicitaciones o hasta quejas, puede llenar el siguiente formulario

CONTACT FORM

In order to check Andrea's agenda and get a quote for an event, or even to just get in touch with him - please use the form below.

Andrea Iorio · 2021 © Todos os direitos reservados.

Andrea Iorio · 2021 © All Rights Reserved.

Andrea Iorio · 2021 © Todos los derechos reservados.