Premium Only Content
A. I., Morremos
Uma das grandes maneiras de incentivar as crianças a lerem para se divertir na década de 1970, especialmente os meninos, era comprar o “ Guinness Book of World Records. ” E junto com os fatos fascinantes sobre Robert Wadlow, de 1,80 metro, de Alton, Illinois, e a estátua comunista da pátria da Rússia que anseia pela Estátua da Liberdade (, mas apenas se você excluir o pedestal da Liberty ), acabariam lendo uma observação aterradora na seção sobre as maiores explosões provocadas pelo homem:
“ Nenhuma estimativa oficial foi publicada sobre a potência potencial do dispositivo conhecida como Doomsday, mas isso supera em muito qualquer arma testada. Se fosse praticável construir, especula-se que um dispositivo com 50.000 megatoneladas de cobalto possa acabar com toda a raça humana, exceto pessoas que estavam no subsolo e não surgiram por mais de cinco anos. ”
Mais tarde, eles podem ver o filme “ Doctor Strangelove ” e rir dessa passagem no Guinness Book, mas infelizmente uma máquina do dia do juízo final do século XXI está involuntariamente em construção há muitos anos, e poucos no setor privado ou no governo estão levando isso a sério.
A autodestruição em busca da melhoria da humanidade não é novidade, de Marie Curie, que morreu de radioatividade, uma palavra que ela cunhou, ao médico e bolchevique Alexander Bogdanov, de alto escalão, cuja busca por uma fonte de juventude por transfusão de sangue o encontrou experimentando até a irmã mais nova de Lenin, mas que morreu no mesmo ano que Curie, 1928, depois trocando sangue com um estudante com malária e tuberculose graves.
Na semana passada, o Instituto Future of Life, sem fins lucrativos, fundado em 2014 por cientistas de destaque com a missão “ de orientar tecnologias transformadoras para beneficiar a vida e evitar riscos extremos em larga escala,” emitiu um carta aberta pedindo uma pausa de seis meses no trabalho avançado de inteligência artificial, com quase 3.000 signatários até agora, incluindo Elon Musk, co-fundador da Apple Steve Wozniak, cientista da computação da Université de Montréal Yoshua Bengio, e professor de ciência da computação de Berkeley e especialista em IA Stuart Russell.
A carta alerta que os sistemas de IA “ com inteligência competitivo por humanos podem representar riscos profundos para a sociedade e a humanidade, como mostra uma extensa pesquisa e reconhecida pelos principais laboratórios de IA. ” Portanto, a IA avançada “ deve ser planejada e gerenciada. ” Em vez disso, no entanto, Os laboratórios de IA nos últimos meses foram “ travados em uma corrida fora de controle para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém — nem mesmo seus criadores — podem entender, prever, ou controle confiável. ”
Infelizmente, mesmo a carta Future of Life é perigosamente ingênua em relação à ameaça da IA. Os sistemas de IA poderosos devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e que seus riscos serão gerenciáveis, “ adverte, recomendando que o governo e a indústria trabalhem juntos para impor sistemas robustos de governança da IA “, incluindo ” um ecossistema robusto de auditoria e certificação. “ Mas uma vez que uma mente mecanizada da IA excedeu a capacidade humana e, ao mesmo tempo, é capaz de se auto-aperfeiçoar, não há como prever seu comportamento. E prever quando isso ocorre pode ser impossível.
Eliezer Yudkowsky, do Instituto de Pesquisa em Inteligência de Máquinas, que estuda segurança da IA há mais de 20 anos, escrito um artigo da revista Time reagindo à carta Future of Life, que ele se absteve de assinar porque acredita que ela subestima os perigos. Yudkowsky tem uma mensagem simples: “ Desligue-a. ”
“ Muitos pesquisadores envolvidos nessas questões, inclusive eu, esperam que o resultado mais provável da construção de uma IA sobre-humanamente inteligente, sob algo remotamente parecido com as circunstâncias atuais, é que literalmente todos na Terra morrerão, escreveu Yudkowsky. Em pouco tempo, ele poderia conceber tecnologias séculos além da atualidade e “ construir formas de vida artificiais ou bootstrap diretamente para a fabricação molecular pós-biológica. ”
Sem, de alguma forma, imbuir a ética da civilização ocidental no pensamento da máquina, que os cientistas não sabem como fazer ( ética humana, a propósito, que inúmeros humanos desafiaram ao longo dos séculos ), Yodkowsky alerta que “ a IA não ama você, nem odeia você, e você é feito de átomos que podem ser usados para outra coisa. ” Ele quer que todo o treinamento avançado em IA seja proibido indefinidamente, imposto por acordos multilaterais imediatos, com “ impedindo cenários de extinção de IA … considerado uma prioridade acima, impedindo que uma troca nuclear completa ” e as principais potências mundiais estejam “ desejando destruir um datacenter desonesto por ataque aéreo. ”
O cineasta e autor James Barrat alertou sobre tudo isso há quase 10 anos em seu livro aterrorizante e extensivamente pesquisado, “ Nossa invenção final: inteligência artificial e o fim da era humana. ” Barrat, que assinou a carta Future of Life e planeja um novo livro sobre IA, não está menos preocupado hoje. Ele disse ao The Epoch Times que o desenvolvimento da IA é impulsionado por uma mistura venenosa de narcisismo e ganância.
“ Há um enorme incentivo econômico em jogo aqui, com as expectativas das tecnologias de IA adicionando $ 16 trilhões ao PIB global até 2030 e salários astronômicos para aqueles que atualmente conduzem a pesquisa,” de acordo com Barrat. “ Há muita arrogância entre algumas figuras importantes no campo da IA e definitivamente uma grande quantidade de ‘ Ei, olhe para nós, estamos construindo Deus. ’ ”
Barrat apontou para Sam Altman, CEO da OpenAI e pai do chatGPT baseado no GPT-4, que a Microsoft Research considera uma possível manifestação precoce da inteligência geral artificial ( AGI ). Em fevereiro, Altman escreveu em um tweet: “ Embora as ferramentas de IA da geração atual não sejam muito assustadoras, acho que não estamos tão longe das ferramentas potencialmente assustadoras. ”
Barrat diz que Sam Altman está fazendo uma dança bizarra de fãs com recursos de transformador pré-treinado generativo “ GPT, expressando alternadamente a preocupação apropriada com seus poderes imprevisíveis e provocando um lançamento global. É sobre exagerar por dinheiro. E o mundo é cativo, mas o que ele fez para merecer esse emprego? Uma pessoa não deve ter tanta responsabilidade. ”
Ele cita os comentários de Altman de que “ ele deseja construir e liberar ‘ sistemas sucessivamente mais poderosos ’ como ‘ a melhor maneira de administrar cuidadosamente a AGI. ’ Em que planeta essa estratégia faz sentido? Velocidade e cautela não andam juntas. ” Barrat enfatizou que “ muitos dos recursos do GPT-3 e 4 ’ não foram planejados. Eles foram descobertos após o fato. Ninguém sabe o que está acontecendo dentro dessas arquiteturas de caixas pretas. Algumas coisas assustadoras que não podemos combater podem surgir a qualquer momento. ”
Barrat está longe de ser o primeiro a descrever os perigos da auto-aperfeiçoamento da inteligência de computador sensível. Mesmo antes dos primeiros avisos de especialistas nas últimas décadas, observado em “ Nossa invenção final de Barrat, ”, houve o romance e o filme de 1969 “ Colossus, o Projeto Forbin,” em que um super-computador maciço construído nas profundezas de uma montanha impenetrável nas Montanhas Rochosas é, em nome da paz, entregue o controle do arsenal nuclear dos Estados Unidos ’, e em pouco tempo se funde com sua contraparte soviética e passa a chantagear o mundo. Depois de detonar simultaneamente armas nucleares no Vale da Morte e na Ucrânia, Colossus anunciaque “ sob minha autoridade absoluta ” os problemas de “ fome, superpopulação, doença ” desaparecerão à medida que resolve “ todos os mistérios do universo para a melhoria do homem,” acrescentando que “ podemos coexistir, mas apenas nos meus termos. ”
Antes disso, havia o romance de Laurence Manning, escritor canadense de ficção científica, de 1933, “ O homem que acordou, ” no qual em 10.000 dC um supercomputador sem emoção e onipotente, “ o cérebro,” controla toda a atividade humana do berço ao túmulo.
Mas mesmo essas extrapolações fictícias são ingênuas. Infelizmente, o cenário do especialista em IA Yodkowsky parece o mais plausível: que uma super-inteligência auto-aperfeiçoadora atuaria como fazemos em relação a, digamos, insetos, com indiferença medida. Quando eles não interferem em nossas atividades, nós os ignoramos. Mas quando os cupins invadem nossas casas ou formigas invadem nossas mesas de piquenique, nós os golpeamos ou os envenenamos, ou seja, os destruímos da maneira mais eficaz disponível.
Curie e Bogdanov foram as vítimas de sua experimentação, mas a autodestruição desatenta daqueles que buscam IA avançada se estende ao resto de nós.
-
1:00:32
Man in America
8 hours ago🔴 LIVE: Terror Attacks or False Flags? IT DOESN'T ADD UP!!!
22.7K3 -
1:02:38
Donald Trump Jr.
10 hours agoNew Year’s Terror, Latest Breaking News with Sebastian Gorka | TRIGGERED Ep.204
160K300 -
59:59
The StoneZONE with Roger Stone
5 hours agoAfter Years of Targeting Trump, FBI and DOJ are Unprepared to Stop Terror Attacks | The StoneZONE
38.3K8 -
1:26:42
Leonardaisfunny
4 hours ago $2.27 earnedH-1b Visas: Infinity Indians
23.3K18 -
1:08:33
Josh Pate's College Football Show
9 hours ago $1.54 earnedPlayoff Reaction Special: Ohio State Owns Oregon | Texas Survives | UGA vs Notre Dame Takeaways
25.2K5 -
58:04
Kimberly Guilfoyle
8 hours agoFBI's Terror Response Failures, Live with Steve Friend & Kyle Seraphin | Ep. 185
100K40 -
2:15:01
WeAreChange
9 hours agoMassive Developments In Vegas Investigation! UNREAL DETONATION, Shocking Details Emerge!
106K41 -
54:02
LFA TV
16 hours ago2025 Is Off to a Violent Start | TRUMPET DAILY 1.2.25 7pm
43.7K9 -
59:27
theDaily302
15 hours agoThe Daily 302- JJ Carrell
40.8K5 -
2:57
EvenOut
2 days ago $1.83 earnedTHE TELEPORTING PORTA POTTY TWIN RPANK!
37.5K2