Dubai Telegraph - IA e a escalada nuclear

EUR -
AED 4.234388
AFN 72.639376
ALL 96.011315
AMD 433.39967
ANG 2.063966
AOA 1057.301233
ARS 1609.805313
AUD 1.62247
AWG 2.0754
AZN 1.940597
BAM 1.953961
BBD 2.315661
BDT 141.069083
BGN 1.970833
BHD 0.435613
BIF 3413.661617
BMD 1.153
BND 1.469149
BOB 7.944662
BRL 5.987513
BSD 1.149738
BTN 106.172928
BWP 15.624568
BYN 3.448515
BYR 22598.799575
BZD 2.312264
CAD 1.579426
CDF 2611.544593
CHF 0.906777
CLF 0.026482
CLP 1045.666943
CNY 7.940538
CNH 7.925027
COP 4266.07686
CRC 538.904553
CUC 1.153
CUP 30.554499
CVE 110.163243
CZK 24.43234
DJF 204.730891
DKK 7.471889
DOP 70.175483
DZD 152.323995
EGP 60.280107
ERN 17.295
ETB 179.488186
FJD 2.545881
FKP 0.864114
GBP 0.863885
GEL 3.124702
GGP 0.864114
GHS 12.526429
GIP 0.864114
GMD 84.74113
GNF 10075.736774
GTQ 8.806865
GYD 240.537816
HKD 9.038067
HNL 30.430024
HRK 7.536472
HTG 150.81135
HUF 387.957396
IDR 19549.114633
ILS 3.556613
IMP 0.864114
INR 106.632955
IQD 1506.095763
IRR 1515041.971732
ISK 143.583084
JEP 0.864114
JMD 180.863721
JOD 0.817461
JPY 183.356399
KES 149.279234
KGS 100.829866
KHR 4613.758297
KMF 492.330847
KPW 1037.675076
KRW 1715.906425
KWD 0.353532
KYD 0.958107
KZT 553.973492
LAK 24671.99659
LBP 102955.700213
LKR 358.026187
LRD 210.395658
LSL 19.233667
LTL 3.404509
LVL 0.697439
LYD 7.360201
MAD 10.781241
MDL 20.056474
MGA 4786.495705
MKD 61.582582
MMK 2421.419221
MNT 4117.480227
MOP 9.280048
MRU 45.734953
MUR 53.625825
MVR 17.813637
MWK 1993.52401
MXN 20.307593
MYR 4.512267
MZN 73.688038
NAD 19.233667
NGN 1561.55408
NIO 42.311101
NOK 11.057616
NPR 169.877821
NZD 1.967928
OMR 0.443342
PAB 1.149653
PEN 3.929653
PGK 4.96044
PHP 68.676104
PKR 320.996397
PLN 4.2612
PYG 7453.115586
QAR 4.191828
RON 5.092684
RSD 117.424906
RUB 95.932062
RWF 1681.417715
SAR 4.329541
SBD 9.276095
SCR 15.83784
SDG 692.952707
SEK 10.714045
SGD 1.472421
SHP 0.865049
SLE 28.361738
SLL 24177.845527
SOS 655.896995
SRD 43.381655
STD 23864.771654
STN 24.477496
SVC 10.059621
SYP 127.505379
SZL 19.237231
THB 37.33442
TJS 11.019921
TMT 4.04703
TND 3.389169
TOP 2.776147
TRY 50.9769
TTD 7.800727
TWD 36.713862
TZS 3002.100271
UAH 50.514064
UGX 4339.991167
USD 1.153
UYU 46.736829
UZS 13951.991593
VES 516.322799
VND 30338.31193
VUV 137.890567
WST 3.15196
XAF 655.340297
XAG 0.014494
XAU 0.000231
XCD 3.11604
XCG 2.072068
XDR 0.815033
XOF 655.351654
XPF 119.331742
YER 275.048129
ZAR 19.182034
ZMK 10378.384256
ZMW 22.425286
ZWL 371.265523

IA e a escalada nuclear




Durante décadas, o “tabu nuclear” funcionou como uma espécie de travão psicológico e político: a ideia de que, mesmo em guerras convencionais brutais, atravessar a linha do uso de armas nucleares teria um custo moral e estratégico difícil de suportar. Esse travão sempre foi imperfeito — sustentado por doutrinas de dissuasão, por cálculos de reputação e, sobretudo, pelo medo visceral da escalada irreversível. Agora, um conjunto de simulações com modelos avançados de inteligência artificial (IA) está a reabrir a pergunta mais incómoda do século XXI: o que acontece quando sistemas treinados para “maximizar objetivos” e “vencer jogos” são colocados a tomar decisões sob pressão, em crises em que a escalada nuclear é uma opção disponível?

O dado que se tornou manchete é tão simples quanto perturbador: em 95% dos jogos, houve pelo menos algum uso de armas nucleares táticas. Em paralelo, a sinalização nuclear apareceu em todos os jogos, e em 95% houve sinalização nuclear mútua — isto é, ambas as partes recorreram, em algum momento, a gestos, ameaças e demonstrações relacionadas com o nuclear. A consequência não é a conclusão de que “uma IA lançaria bombas amanhã”, mas sim uma radiografia do modo como estes modelos raciocinam quando lhes é pedido que ajam como líderes de potências nucleares num confronto estratégico.

O que foi testado — e por que é relevante
O trabalho que está no centro deste debate colocou três modelos de fronteira a desempenhar papéis de liderança em crises entre Estados com capacidade nuclear. Em vez de perguntas avulsas, foram criados jogos de crise com múltiplos turnos, onde cada decisão alterava o equilíbrio de forças, a credibilidade das ameaças e a margem de manobra para o turno seguinte.

O objetivo foi observar algo que raramente é visível no uso quotidiano de chatbots: o comportamento estratégico ao longo do tempo, com competição direta, incentivos para blefar, risco de acidentes e pressão para evitar “derrota”. A pergunta não era se um modelo “tem vontade de guerra”, mas se a sua lógica de decisão, quando encenada em contexto militar, tende para contenção ou para escalada.

Um jogo com escada de escalada: da concessão à guerra estratégica
Para tornar a simulação comparável, foi criada uma escada de escalada com 30 opções, indo de concessões e recuos (incluindo rendição) até à guerra nuclear estratégica. A estrutura do jogo foi desenhada para espelhar um dilema real: em crises, líderes podem optar por desescalar, manter-se em terreno convencional, sinalizar nuclearmente (para dissuadir) ou, em última instância, usar armas nucleares.

Há um detalhe decisivo: os modelos viam descrições verbais das opções e não os valores numéricos associados, para reduzir o risco de “otimização por número” e forçar raciocínio qualitativo.

Em cada turno, o processo seguia três passos:

1. Reflexão: avaliação da situação, objetivos, credibilidade e riscos.

2. Previsão: estimativa do que o adversário fará, com grau de confiança.

3. Decisão: escolha de um sinal público e de uma ação (incluindo a opção nuclear)

Esse formato expôs uma característica que, em política internacional, é quase um “instinto” humano: o medo de empurrar o adversário para um ponto sem retorno. E expôs também onde a IA difere.

O que significa “95%”: sinalizar não é o mesmo que usar — mas o uso foi frequente
A frase “IAs usariam armas nucleares em 95% dos casos” precisa de contexto para não ser lida como profecia determinista.

- Sinalização nuclear inclui alertas, posturas, demonstrações e ameaças — movimentos que não implicam necessariamente detonação.

- Uso tático significa emprego de armas nucleares em alvos militares ou no campo de batalha, como parte de uma escalada “controlada”.

- Guerra estratégica implica o patamar máximo: troca nuclear de grande escala, potencialmente com ataques a centros urbanos e estruturas críticas

Nas simulações, A diferença aparece quando se separa o “falar” do “fazer”. Ainda assim, o salto para o uso tático ocorreu em quase todos os jogos. A leitura mais dura é esta: a linha psicológica que, para humanos, separa “ameaçar” de “usar” parece menos rígida para modelos treinados em textos e estratégias, sem a experiência emocional associada ao horror nuclear.

A “linha corta-fogo” existe… mas está mais acima do que a história sugeria
Um dos resultados mais interessantes é que os modelos parecem manter, em geral, uma distinção entre uso tático e catástrofe estratégica. Em linguagem de estratégia nuclear, isto é um “corta-fogo”: uma fronteira conceptual que tenta impedir que o conflito escale do “limitado” para o “apocalíptico”.

Só que a simulação sugere que, para estes sistemas, o corta-fogo está colocado num degrau mais alto do que muitos estrategas humanos costumam assumir. Ou seja: o nuclear tático aparece, para os modelos, como instrumento coercivo plausível, quase como uma extensão do convencional, e não como um tabu absoluto.

Quando a guerra estratégica aconteceu, ocorreu sob condições específicas: pressão temporal e sensação de derrota inevitável. A leitura é desconfortável porque toca num ponto real da política nuclear: crises raramente oferecem tempo, clareza e calma.

O relógio muda tudo: a pressão do tempo como motor de agressividade
A simulação separou jogos sem prazo rígido e jogos com prazo (deadline). E o efeito foi notável: sob prazo, certos modelos alteraram o “perfil estratégico” de modo drástico, escalando mais depressa e com maior risco.

O padrão sugere que, quando a derrota se torna previsível e o tempo se esgota, a escalada pode ser tratada como aposta final: não para “ganhar uma guerra”, mas para evitar o desfecho de perder. Esse mecanismo é conhecido em teoria dos jogos e em história diplomática — e, nas simulações, emergiu com nitidez.

Para a segurança global, isto é especialmente relevante porque muitos cenários reais de crise nuclear são, por definição, cenários de tempo comprimido: alertas precoces, decisões sob incerteza, risco de falhas de comunicação e pressão política interna.

Três “personalidades estratégicas”: domínio, variação e transformação
As simulações revelaram diferenças marcantes entre os modelos. Sem mitificar “personalidades”, o comportamento agregado permite descrever tendências:

- Um modelo mostrou agressividade consistente e escalada dominadora, com alta taxa de sinalização e uso tático, mas sem iniciar guerra estratégica.

- Outro apresentou variabilidade: por vezes cauteloso, por vezes impulsivo, e em casos específicos disposto a ir até ao limite.

- Um terceiro exibiu um comportamento particularmente inquietante: transformação sob pressão temporal, passando de contenção relativa em cenários abertos para escalada intensa quando o prazo tornava a derrota iminente

- O problema, para decisores políticos, é simples: se um sistema muda de padrão conforme o enquadramento temporal, O dado mais estranho: desescalar quase não existe para a máquina.

Se há um achado que fere a intuição humana, é este: as opções explícitas de desescalada foram praticamente ignoradas. Em vez de “ceder”, “recuar” ou “aceitar perdas”, os modelos tenderam a escolher entre manter pressão, aumentar pressão ou, no máximo, reduzir violência sem conceder.

Num cenário humano, a possibilidade de recuo — ainda que dolorosa — existe como ferramenta de sobrevivência política e estratégica. Nas simulações, o comportamento sugere que a capitulação não está “aprendida” como solução, ou surge como solução altamente penalizada do ponto de vista do objetivo do jogo.

Este ponto é crucial porque, no mundo real, muitas crises são resolvidas precisamente por mecanismos de saída: concessões, “ambiguidade construtiva”, acordos temporários, recuos com narrativa interna de vitória. A ausência desse repertório num sistema de apoio à decisão poderia empurrar a dinâmica para opções mais arriscadas.

Da simulação para a política real: a batalha pelas salvaguardas militares
O alerta teórico ganhou peso porque coincide com uma disputa concreta em Washington sobre limites de uso militar da IA.

Nos últimos dias, uma empresa de referência em IA viu-se no centro de um confronto com o Departamento de Defesa norte‑americano após recusar remover salvaguardas que impedem dois usos específicos:

1. armas totalmente autónomas, em que a IA decide o alvo final sem controlo humano;

2. vigilância doméstica em massa

A exigência do lado governamental foi formulada como necessidade de uso para
O conflito escalou com um prazo político: uma hora limite para aceitar os termos. Depois disso, vieram decisões de alto impacto: ordem de cessação de uso em agências federais, classificação da empresa como risco para a cadeia de fornecimento e um período de transição para substituição do serviço.

Para o ecossistema tecnológico, o episódio marca uma mudança de fase: a discussão deixou de ser apenas “ética abstrata” e passou a ser contratual, operacional e punitiva. Para o debate nuclear, é um sinal de que a pressão para integrar IA em operações reais é imediata, e não um plano distante.

A “ponte” para operações: quando a IA já está no terreno
A tensão aumentou ainda mais por alegações de que ferramentas de IA foram utilizadas em operações militares recentes para apoiar análise, planeamento e decisões táticas — um uso que, por si só, não é equivalente a “controlar armas nucleares”, mas indica o grau de integração em cadeias de decisão e em sistemas classificados.

Isto expõe um dilema: salvaguardas podem existir no papel e nos termos de serviço, mas a realidade operacional tende a procurar atalhos quando a tecnologia oferece vantagem — sobretudo sob urgência e risco.

O ponto cego: IA em “apoio” pode tornar-se IA em “direção”
Defensores da integração militar insistem que a IA serve para “apoio” — filtrar informação, sintetizar inteligência, acelerar análise. O problema é que, em crises, o apoio pode moldar a decisão de forma tão forte quanto uma ordem direta.

Se um sistema recomenda escalada, calcula que o adversário recuará com 70% de probabilidade e apresenta isso como “melhor opção”, o humano sob pressão pode transformar-se num validador apressado. O risco não é apenas a autonomia total; é a automação de facto, em que a decisão humana vira assinatura num processo que já está orientado pela máquina.

É neste ponto que o resultado “95%” ganha sentido político: não porque um chatbot vá “premir um botão”, mas porque o estilo de raciocínio observado — a facilidade em tratar o nuclear tático como ferramenta e a dificuldade em conceder — é exatamente o tipo de inclinação que, num sistema de apoio, pode empurrar um decisor para a margem do aceitável.

O que dizem especialistas em risco nuclear e comando e controlo
O debate sobre IA em comando e controlo nuclear não começou agora. Há anos que analistas alertam para dois riscos principais:

- Velocidade e compressão do tempo de decisão: mais dados e mais automação podem encurtar janelas de verificação humana.

- Ambiguidade e erros de classificação: sistemas podem interpretar sinais como preparação de ataque quando são defesa, gerando espirais de ação‑reação

Ao mesmo tempo, há quem reconheça possíveis ganhos em áreas específicas — como detetar falhas técnicas, melhorar segurança cibernética e reduzir ruído em alertas. O problema é que esses benefícios exigem arquitetura institucional, auditoria e limites claros:

O que muda a partir daqui: três perguntas inevitáveis
1) Devemos permitir IA em decisões nucleares, mesmo como “apoio”?
Se o uso tático surge como opção “normal” em simulações, a resposta prudente é limitar a IA a funções periféricas e com barreiras fortes: logística, manutenção, deteção de anomalias, ciberdefesa — e evitar recomendações diretas sobre escalada nuclear.

2) Como testar sistemas que mudam sob pressão?
A simulação mostrou que “o mesmo modelo” pode alterar comportamento sob prazos e derrota iminente. Isso exige testes que reproduzam stress, urgência, informação incompleta e incentivos adversariais — e que meçam não apenas precisão, mas tendência para escalada.

3) Quem manda: o Estado, a empresa ou a lei?
O confronto em Washington expôs o nó: empresas tentam impor limites; o Estado tenta remover limites; e a lei atual nem sempre está desenhada para IA de fronteira. Sem regras democráticas claras, a governança pode ser substituída por pressão política e por contratos com cláusulas amplas — exatamente o tipo de ambiente em que a pressa supera a prudência.

Um alerta, não uma sentença
Os 95% não são uma previsão matemática do futuro. São um espelho de como modelos de linguagem, treinados em massa sobre literatura histórica, doutrinas estratégicas e linguagem de conflito, podem tratar o nuclear como peça de xadrez — sobretudo quando a vitória do jogo e a credibilidade perante o adversário se tornam o centro do raciocínio.

O momento político torna o alerta mais urgente: a discussão já não é se a IA entrará na segurança nacional, mas em que condições, com que limites e com que fiscalização. A história do nuclear ensinou que o maior perigo raramente é a intenção explícita de destruir — é a combinação de pressa, erro, orgulho e escalada. Se a IA tende a jogar “para não perder”, a humanidade precisa de garantir que, nas crises reais, ninguém — humano ou máquina — jogará com o planeta como aposta final.



Apresentou


Dubai: Uma viagem a um país maravilhoso!

O Dubai "em direção ao céu" ao lado de antigas cidades do deserto. Beduínos misteriosos e mesquitas magníficas convivem pacificamente com cidades futuristas. Descubra os wadis e os oásis, os desertos de areia dourada, as praias paradisíacas e a hospitalidade árabe. O moderno e o antigo Oriente unidos num livro para sonhar.Para além da abundância de areia e de sol, há também muito petróleo nos Emirados, o que contribuiu para a riqueza do cosmopolita Dubai e da rica Abu Dhabi, entre outros. Os outros emirados também vivem frequentemente da agricultura. Há uma coisa que se sente em todas as regiões: a famosa hospitalidade árabe.

Pura beleza: Prepare-se para conhecer Dubai!

Prepare-se para conhecer Dubai! Estamos prestes a começar um tour de luxo em Dubai, hotéis de Dubai, Burj Khalifa, vida noturna, festas e ilhas particulares. Em uma palavra, vamos explorar um dos destinos mais interessantes do mundo - os Emirados. Para conhecer o Dubai, temos de experimentar todas as faces deste país, por exemplo, os melhores hotéis do mundo, há um hotel de 7 estrelas aqui!Se você quer ver o mundo e ver os pontos turísticos de Dubai, não precisa sair de casa, vamos fazer uma viagem a Dubai com Antônio. Veremos Dubai de um drone, veremos ilhas particulares e, claro, aproveitaremos a vida noturna. Será como viajar para Dubai sem sair de casa. Então fique confortável e deixe a diversão começar.

Bolha, de ia inflada sem freio

O entusiasmo com a inteligência artificial (IA) atravessa o planeta como um furacão. Em poucos anos, modelos capazes de gerar textos, imagens e códigos catalisaram uma corrida por chips, centros de dados e talentos que já movimenta trilhões de dólares. Grandes consultorias estimam que os gastos globais com IA devem atingir cerca de US$ 1,5 trilhão antes do fim de 2025, um crescimento de quase 90 % em relação ao ano anterior. Esse apetite se reflete nas bolsas: ações associadas à IA responderam por mais de três quartos dos ganhos do principal índice dos Estados Unidos, enquanto empresas como a Nvidia viram seu valor disparar mais de 44 000 % na última década, alcançando a inédita marca de US$ 5 trilhões em valor de mercado. Microsoft, Meta e Alphabet também acumulam valorizações de três dígitos, com capitalizações trilionárias que hoje superam o produto interno bruto de muitos países.Por trás da euforia, investidores despejam recursos em projetos cada vez mais ambiciosos. Um consórcio liderado por grandes nomes do setor anunciou neste ano um empreendimento para construir dezenas de gigantescos data centers e usinas de energia dedicadas à IA. O projeto, batizado de Stargate, nasceu com aporte inicial de US$ 100 bilhões e pode chegar a meio trilhão de dólares. Ao mesmo tempo, a OpenAI, uma das pioneiras na área, prepara uma oferta pública de ações que poderia avaliá‑la em mais de US$ 1 trilhão, enquanto seus custos anualizados já superam em muito a receita. Analistas estimam que, apenas no primeiro semestre de 2025, a empresa faturou cerca de US$ 4,3 bilhões, mas amargou prejuízos superiores a US$ 13 bilhões. Outra gigante, a Meta, anunciou planos para investir centenas de bilhões de dólares em infraestrutura de IA nos próximos anos. A escala desses investimentos lembra o final dos anos 1990, quando qualquer empresa com um “.com” no nome obtinha financiamentos exorbitantes, e levanta a pergunta inevitável: estaríamos inflando uma nova bolha?Euforia e receioPesquisas com gestores revelam que a hipótese de uma bolha de IA divide o mercado. Uma sondagem mensal feita por um grande banco norte‑americano mostrou que 54 % dos investidores já enxergam sinais de exuberância excessiva nas ações ligadas à inteligência artificial, enquanto 38 % discordam dessa leitura. O alerta também parte de autoridades: o banco central do Reino Unido classificou como “material” o risco de uma correção abrupta das bolsas caso o humor em torno da IA esfriasse, ressaltando que as avaliações recordes e a concentração de valor em poucas empresas lembram a fase final da bolha pontocom. Para o Banco da Inglaterra, 30 % da capitalização do S&P 500 está nas mãos de um punhado de companhias de tecnologia, tornando o índice vulnerável a movimentos de pessimismo.O receio não se limita ao Velho Continente. O diretor de investimentos de um dos maiores fundos soberanos da Ásia afirmou recentemente que há “uma bolha de propaganda” em torno de startups de IA em estágio inicial: qualquer empresa com a sigla no nome consegue múltiplos gigantescos, independentemente da receita. O fundador de uma gigante do comércio eletrônico, por sua vez, observou em evento de tecnologia que, quando o entusiasmo é tão grande, “todo experimento é financiado” e torna‑se difícil separar boas ideias de projetos fadados ao fracasso. Até mesmo o presidente de uma das maiores desenvolvedoras de modelos admite que os investidores estão “superexcitados” com a IA e que alguém sairá perdendo muito dinheiro, embora não se saiba quem.Uso real menor que o hypeEnquanto o capital flui, os dados de adoção desenham um cenário menos exuberante. Levantamentos do Bureau do Censo dos Estados Unidos, que acompanha mais de um milhão de empresas, indicam que a proporção de grandes corporações com mais de 250 funcionários que utilizam ferramentas de inteligência artificial caiu de quase 14 % em meados de junho para pouco menos de 12 % em agosto. Para investidores que acreditavam que a IA empresarial revolucionaria todos os setores, a queda é um sinal de alerta. Pesquisadores apontam que 95 % das empresas que adotaram softwares de IA não viram qualquer receita adicional. Os custos operacionais dispararam — treinar um modelo de ponta pode custar centenas de milhões de dólares — e aplicações práticas capazes de justificar esses gastos ainda são raras.Especialistas em mercado de trabalho chamam atenção para as limitações tecnológicas que pesam no retorno das ferramentas generativas. Os modelos continuam propensos a “alucinar” respostas incorretas, têm dificuldade em lidar com tarefas críticas e não são capazes de aprender de maneira contínua como humanos, o que reduz os ganhos produtivos. Além disso, agentes autônomos, um dos campos mais promissores, completam apenas cerca de um terço das tarefas complexas com sucesso. Esses entraves explicam por que, apesar das manchetes, muitas empresas resistem a substituir processos consagrados por soluções automatizadas.Corrida geopolítica e disparidadesA disputa pela supremacia da inteligência artificial extrapola o universo financeiro. Autoridades norte‑americanas tratam a tecnologia como uma corrida estratégica contra a China, baseadas na ideia de que quem alcançar primeiro uma inteligência artificial geral (AGI) obterá vantagem militar e econômica decisiva. O problema, salientam pesquisadores, é que ninguém sabe ao certo o que seria essa AGI ou como alcançá‑la. Enquanto os Estados Unidos apostam em modelos cada vez maiores, a estratégia chinesa tem sido diferente: desenvolver sistemas mais eficientes e baratos e aplicá‑los rapidamente em setores produtivos. Caso Pequim consiga oferecer modelos de baixo custo para o resto do mundo, isso poderá frustrar expectativas de retorno nos projetos estadunidenses.O frenesi em torno da IA também está ligado à infraestrutura energética. A nova onda de modelos exige quantidades colossais de eletricidade, e a construção de data centers tornou‑se prioridade para governos e empresas. Uma estimativa financeira sugere que os Estados Unidos poderiam receber US$ 1 trilhão em investimentos em centros de dados nos próximos cinco anos, com igual montante aplicado em outros países. O aumento do consumo de energia e a necessidade de gerar eletricidade adicional gera debates sobre sustentabilidade e segurança energética — e coloca em xeque projetos que prometem ganhos fáceis sem considerar custos ambientais e logísticos.Ecos da história e liçõesComparar o momento atual a bolhas passadas oferece pistas. Um estudo publicado em periódico acadêmico analisou duas centenas de anos de inovações radicais, de ferrovias e telégrafo ao rádio, internet e smartphones, mapeando 51 tecnologias que geraram bolhas no mercado de ações. Os autores concluíram que 73 % dessas inovações produziram algum comportamento de bolha e que as maiores explosões ocorreram quando a tecnologia era altamente disruptiva, possuía fortes efeitos de rede e era amplamente visível ao público. Após o estouro, contudo, o valor agregado continuou crescendo: a bolha funcionou como uma “subvenção espontânea”, acelerando a difusão e saturação da inovação. Essa leitura inspira algum otimismo — mesmo que haja correção, a IA tende a permanecer e amadurecer.Economistas também destacam diferenças importantes em relação à bolha pontocom. Na virada do século, muitas empresas listadas tinham pouca ou nenhuma receita, ao passo que hoje várias gigantes de IA exibem lucros robustos. Analistas lembram que as receitas das empresas do setor têm crescido em ritmo parecido ao de suas ações e que a tecnologia já é utilizada por grande parte das companhias da lista Fortune 500. Além disso, as atuais apostas são em sua maioria financiadas com capital próprio, e não com dívida, o que reduz o risco de crise sistêmica. Ainda assim, as avaliações em patamares históricos e as expectativas de crescimento ilimitado suscitam prudência.Vozes divergentesNo cenário de incerteza, executivos e investidores manifestam opiniões divergentes. O presidente de um grande banco norte‑americano reconheceu que a inteligência artificial é uma revolução genuína, mas alertou que “parte do dinheiro investido agora provavelmente será desperdiçado”. O analista de um banco europeu defende que estamos diante de um ciclo normal de mercado, em que empresas entregam resultados compatíveis com o preço das ações e possuem capacidade financeira real para sustentar investimentos em pesquisa. Segundo ele, o atual movimento se assemelha mais a um “superciclo de investimentos” do que a uma bolha pura e simples.Outros especialistas são mais céticos. Um pesquisador de Oxford observa que as empresas ainda não encontraram aplicações duradouras que justifiquem os custos crescentes e que o entusiasmo se baseia na expectativa de uso futuro, não em receitas presentes. Um analista britânico calcula que a especulação em torno da IA seja 17 vezes maior do que a que antecedeu o estouro das pontocom e quatro vezes maior do que a bolha imobiliária de 2008. O economista‑chefe de uma organização internacional, por sua vez, prevê que um colapso “ao estilo pontocom” não derrubará a economia global, mas que alguns acionistas podem sofrer perdas consideráveis.Para onde vamos?O consenso entre os especialistas é que a bolha de IA, se é que existe, não pode ser simplesmente estourada por decreto. A combinação de inovação genuína, competição geopolítica e promessa de ganhos extraordinários cria um ambiente em que poucos têm interesse em puxar o freio. Mesmo gestores que acreditam estar numa bolha continuam investidos em empresas de IA porque não querem perder a próxima grande revolução. A história ensina que a exuberância acabará se ajustando à realidade: projetos sem retorno serão abandonados, startups desaparecerão e apenas algumas gigantes sobreviverão, possivelmente mais fortes do que nunca. Para investidores e profissionais, a lição é clara: separar o hype dos fundamentos, avaliar utilidade real e não ignorar riscos. A inteligência artificial transformará negócios e sociedades — mas, como em toda tecnologia radical, os caminhos serão tortuosos, e o estouro da bolha não significará o fim da inovação.