“Computadores quânticos vão revolucionar a indústria” – Pedro Couto
A Accenture identifica três modelos tecnológicos que são os mais promissores para responder às necessidades das organizações. Pedro Couto, Associate Director da Accenture, detalha esses modelos.
Pedro Couto é Associate Director da área de Technology da Accenture Portugal. Em entrevista ao ECO, detalha as tecnologias mais promissoras para o desenvolvimento da sociedade, e que são analisadas no Accenture Technology Vision 2022.
Os computadores estão cada vez mais sofisticados, desafiando os limites do pensamento humano. Quais são as tecnologias mais promissoras para a Accenture, e porquê?
Desde 1965 que os construtores de computadores sofrem com a famosa “Lei de Moore”, que “previa” que o número de transístores nos CPU dobrava a cada 18 meses e, com isso, dobrava também a capacidade de processamento. Se até à primeira década deste século, esta lei foi sendo observada, nos últimos anos verificou-se que esta progressão de componentes eletrónicos muito dificilmente se manteria. No entanto, e surpreendentemente, o crescimento da capacidade de processamento não foi afetado, pelo contrário, aumentou exponencialmente.
Dado que a forma tradicional de aumento de capacidade parecia já não conseguir acompanhar as necessidades crescentes das organizações, outros modelos tecnológicos de processamento foram surgindo. Entre estes, a Accenture destaca três, que pela sua importância ou pela forma distinta como foram projetados, demonstram ser os mais promissores, num futuro próximo…
Identifica alguma com um relevo particular?
A computação quântica é o expoente máximo, e talvez o mais conhecido, destes novos modelos tecnológicos. Libertando-se do modelo tradicional dos “zeros” e “uns”. Este modelo tecnológico, veio a introduzir na computação um modelo de probabilidades baseado nos famosos qubits. Já disponíveis comercialmente, os computadores quânticos começam agora a preparar-se para ocupar algum espaço dentro das organizações. Em 2019, a computação quântica atingiu um marco importante, quando a Google anunciou ter atingido a “supremacia quântica”, utilizando esta tecnologia para resolver um problema, que levaria mais 10.000 anos a resolver, caso se utilizassem os modelos de computação tradicionais. Ainda que esta afirmação esteja a ser “criticada” pelos especialistas na área, estas objeções tornam-se irrelevantes, pois há menos de dez anos a possibilidade de até debater esta descoberta seria considerada ridícula.
Em 2021, foram publicados os primeiros trabalhos na área financeira, com a utilização de modelos quânticos para a execução de simulações com o Algoritmo de Monte Carlo. Estas simulações são usadas para prever resultados baseados em amostragens aleatórias massivas e são consideradas computacionalmente muito complexas e exigentes. No entanto, a sua aplicação nas áreas financeiras e farmacêuticas poderá revolucionar estas indústrias. Como resultado destes estudos, o Goldman Sachs já anunciou que espera ter estes modelos a funcionar em computadores quânticos nos próximos dois a quatro anos.
E quais são as outras?
Outra das tecnologias que demonstra mais capacidade para acompanhar as necessidades futuras de processamentos massivos são os sistemas computacionais de alta performance (“high performance computers” ou HPC). Estes poderão também representar uma solução para processamentos massivos de dados que, com a utilização dos computadores atuais podem ser vistos como demasiado caros, demorados ou ineficientes. A tecnologia HPC aposta no processamento massivo através da paralelização e distribuição do mesmo por centenas, milhares ou mesmos milhões de máquinas diferentes, que não necessitam de estar fisicamente juntas nem de ser iguais. Um dos melhores exemplos da aplicação desta tecnologia, foi demonstrado pela Folding@home. A Folding@home começou como um pequeno projeto de computação distribuída, que permitia a utilização de capacidade de processamento não utilizada de computadores de voluntários, para efetuar a análise de proteínas. Contando inicialmente com uma infraestrutura de cerca de 30.000 nós de processamento, após 2020 esta base ultrapassou os 400.000 nós, o que permitiu completar o mapeamento genético do vírus SARS-CoV-2. Simultaneamente, a rede da Folding@Home conseguiu ultrapassar as 1018 operações computacionais por segundo, o que constituiu um novo recorde de processamento.
No entanto, não é apenas a junção de nós computacionais que cria um HPC, as evoluções apresentadas na construção de supermáquinas com objetivos específicos, em vez de estarem preparadas para uma “computação genérica”, apresentam-se também como uma evolução disruptiva nesta área. Um dos maiores casos de sucesso foi apresentado pela Tesla. A Tesla recolhe e armazena grandes quantidades de dados de condução dos seus veículos, mas rapidamente se apercebeu que a tecnologia atual, mesmo recorrendo a processamentos paralelos, não seria computacionalmente eficiente para treinar modelos de inteligência artificial que permitissem substituir os humanos na condução.
Surgiu desta forma o Dojo. Esta máquina foi desenvolvida pela Tesla com apenas um propósito: treinar as redes neurais de visão computacional que sustentam a tecnologia de condução autónoma dos seus veículos.
Agregados a estes modelos computacionais, começam também a surgir soluções baseadas na biologia, que dependem de, ou copiam, processos naturais para armazenar dados, resolver problemas ou modelar sistemas complexos de formas profundamente distintas das que hoje utilizamos. Seja pela utilização de processadores desenhados à imagem do cérebro humano, com a utilização de neurónios artificiais para a otimização da transmissão de informação de uma forma muito mais eficiente que os atuais CPU, ou pela utilização de ADN. Estudos atuais apontam para a capacidade de armazenamento de um exabyte de informação em apenas um centímetro cúbico e por um período superior a 700.000 anos (Um exabyte corresponde a 1018 bytes e permitiria a gravação de um vídeo HD durante 238.000 anos).
Estas três tecnologias, separadamente ou utilizadas em conjunto, parecem-nos ser mais promissoras e irão permitir resolver alguns dos mais complexos desafios do conhecimento enquanto trazem valor para as organizações que apostarem, desde já, na sua utilização.
A computação quântica tem sido dada a promessas arrojadas, mas ainda não tem um impacto significativo no funcionamento das empresas e na vida das pessoas. Onde e quando é que o impacto vai ser mais determinante e transformador?
De acordo com a pesquisa efetuada pela Accenture, dois terços dos consumidores globais (67%) esperam que as empresas usem tecnologias para resolver os grandes e complexos problemas da sociedade, porque os beneficiará a eles e às suas comunidades.
A computação quântica tem sido apresentada como a “solução miraculosa” para todos os problemas existentes e, para além disso, está envolvida numa espécie de mística, pois a explicação sobre como esta tecnologia funciona, é bastante complexa e incomparável com os processos computacionais hoje disponíveis.
Os problemas para os quais a computação quântica está mais orientada não serão a gestão de folhas de cálculo, a execução de um processador de texto, nem mesmo a performance de um jogo de ação (embora, neste caso, ainda possam existir novidades) e por isso, o seu impacto nas organizações e na vida das pessoas ainda não é totalmente percetível.
No entanto, se dissermos que grande parte do sucesso do desenvolvimento da vacina do COVID-19 se deveu a estas novas tecnologias, ou que estas poderão revolucionar a forma como protegemos os nossos dados online, então o impacto já é decisivamente transformador e surpreendente.
Para algumas organizações, a resolução de alguns problemas há muito conhecidos, como por exemplo “O Problema do Caixeiro Viajante”, considerado computacionalmente complexo para poder ser resolvido em tempo útil, poderá alterar de forma determinante o posicionamento e a atuação das empresas na área da logística, pois conseguirão determinar, em tempo útil, a solução mais vantajosa para efetuarem o seu trabalho.
Na área financeira já existem empresas a desenvolver algoritmos quânticos para elaborar previsões sobre os mercados de ações e modelos de cálculo de risco. Todas estas áreas são hoje consideradas demasiado complexas para os modelos computacionais atuais, dado a sua enorme complexidade e o número de variáveis quase infinitas que poderão influenciar estas previsões.
A grande questão que se coloca é: E se estas perguntas deixarem de ser complexas com a computação quântica?
Qual será o impacto para as organizações que primeiro dominarem este novo conhecimento e qual será o impacto para as organizações que não as acompanharem?
O momento determinante não será quando tivermos um computador quântico em casa, pois isso possivelmente nunca irá acontecer (embora já grandes personalidades da área da computação tenham feito previsões semelhantes quanto à necessidade da existência de mais do que cinco computadores no mundo [1], ou mesmo sobre a necessidade de existirem computadores em casa [2]). Irá sim, ser impactante, quando nos apercebemos que a nossa vida foi de facto marcada pela existência destas máquinas, seja porque as encomendas que fizemos online chegam mais depressa e com custos inferiores, ou porque as nossas aplicações tiveram um maior retorno do que a média, pois o nosso gestor bancário é um algoritmo quântico.
Imagine-se que um CEO de uma empresa líder mundial no seu mercado, descobre que o seu maior competidor cria uma nova forma de operar, mais eficiente, mais barata, com melhores resultados de satisfação junto dos seus clientes, e rasgando por completo o paradigma existente. Não tendo os recursos e capacidades necessários para se adaptar a esta nova forma de trabalho, não há nada que a sua empresa possa fazer. Este é o principal desafio que se colocará a todas as organizações interessadas em evoluir e crescer.
Pensa-se que os modelos de inteligência artificial vão continuar a melhorar à medida que a capacidade de computação for crescendo. Hoje já temos modelos com milhares de milhões de variáveis e capazes de produzir resultados verdadeiramente surpreendentes. Na perspetiva da Accenture, a IA ainda tem muito que evoluir ou acabará por atingir em breve o “plateau”?
Se existe algo que aprendemos com a tecnologia é que os “plateaus” não existem. Imagine-se o que teria acontecido se após o primeiro voo motorizado alguém tivesse decidido que não seriam necessárias quaisquer evoluções adicionais, pois o principal objetivo – voar – tinha sido atingido.
Se observarmos onde estava a inteligência artificial no início do século e onde está hoje, vemos que a sua evolução foi extraordinária e algo impossível de prever no ano 2000. No entanto, também aprendemos que o salto tecnológico que demos nestes vinte anos será considerado muito pequeno, quando for comparado aos resultados que vamos obter nos próximos vinte.
Hoje vemos grandes notícias sobre a evolução da inteligência artificial e sobre a forma como esta se equipara à inteligência humana. Temos até notícias sobre “entidades artificiais” que poderão ter ganho “consciência da sua existência”, querendo ser reconhecidos como seres sapientes [3]. Achamos que a evolução nesta área será tão explosiva que num futuro próximo não existirá qualquer capacidade de distinguir “entidades inteligentes artificiais” das “entidades inteligentes naturais”.
Para as organizações, esta evolução trará novas formas de ultrapassar os principais desafios atuais e a criação de oportunidades inimagináveis aos dias de hoje, desde que estas estejam, desde já, preparadas para esta revolução. Caso não o pensem fazer, poderão sempre avaliar o que aconteceu aos grandes produtores de velas, após a generalização do uso da eletricidade para a iluminação.
De que forma é que a próxima geração de supercomputadores pode romper com alguns paradigmas, como a utilização de passwords e a previsão do comportamento dos mercados de capitais?
Como já anteriormente mencionado, uma das áreas que será mais impactada pela utilização destes novos modelos computacionais, será a área da segurança.
Hoje sabemos que grande parte da nossa vida (digital ou não) depende de um conjunto de carateres, que deverão ser mais de oito, conter números e símbolos e que seja difícil de adivinhar.
Todos nós ouvimos estas regras diversas vezes por semana e todos nós sabemos que quanto maiores e mais complexas forem as nossas passwords, mais dificilmente serão descobertas. Existem, inclusive, umas tabelas que nos demonstram que se usarmos uma password com estas características, poderá demorar até três semanas a um computador para a descobrir. Se usássemos 15 carateres, o tempo necessário pelo mesmo computador seria superior à idade atual do universo, mas…
…e se de um momento para o outro uma tecnologia completamente disruptiva passasse a demorar um minuto a descobrir essa mesma password? E se mesmo que aumentássemos a password para 100 carateres o tempo para a descobrir fosse também de um minuto?
Esta será a maior quebra de paradigma na área da segurança informática desde sempre e demonstra na perfeição como um sistema computacional quântico funciona de forma distinta dos modelos atuais. Os nossos modelos algoritmos atuais são desenhados para testar uma hipótese de cada vez. Podemos adicionar mais computadores para testar em paralelo, mas ainda assim, o tempo necessário para completar estas tarefas é praticamente infinito.
Com os modelos computacionais quânticos, podemos testar todas as hipóteses em simultâneo (ou quase), permitindo a descoberta da nossa password em momentos, independentemente da sua complexidade.
No entanto, isto não quer dizer que a nossa segurança online esteja condenada, pelo contrário, os mesmos modelos quânticos que vão condenar os atuais processos de encriptação, serão também usados para definir novos paradigmas e soluções de segurança extremamente mais complexos e seguros. Estes poderão basear-se em emparelhamento quântico ou no armazenamento dos dados em estruturas biológicas, como o ADN.
Um processo semelhante acontecerá na área financeira, o que hoje tomamos como excessivamente complexo, como por exemplo a previsão da evolução de uma determinada ação de uma empresa, será algo que estes novos modelos poderão prever, antecipando todos e quaisquer fatores que influenciem a subida e descida do mercado. Não o farão apenas para uma ação em específico, poderão efetuá-lo de forma quase instantânea para todo o mercado financeiro.
Outras áreas que serão impactadas com esta evolução na previsão de modelos e na capacidade de processamento e armazenamento quase infinitos, serão: a indústria farmacêutica, na análise de proteínas e na execução de testes a moléculas; as indústrias energéticas, que conseguirão antecipar corretamente todas as necessidades de produção e utilização, reduzindo ao mínimo os custos de armazenagem e de sobreprodução; e ainda áreas mais sociais como as organizações responsáveis pelas previsões meteorológicas, que poderão criar, com muito maior previsibilidade, os modelos atmosféricos necessários para a execução das suas previsões.
Como é que as empresas devem olhar para esta evolução e que ações devem preparar no curto e médio prazo?
Uma das lições que todas as evoluções/revoluções nos mostraram é que os primeiros a agir adquirem normalmente uma enorme (por vezes decisiva) vantagem sobre todos os outros. Na evolução que estamos a assistir, não será diferente.
Imagine-se que um CEO de uma empresa líder mundial no seu mercado, descobre que o seu maior competidor cria uma nova forma de operar, mais eficiente, mais barata, com melhores resultados de satisfação junto dos seus clientes, e rasgando por completo o paradigma existente. Não tendo os recursos e capacidades necessários para se adaptar a esta nova forma de trabalho, não há nada que a sua empresa possa fazer. Este é o principal desafio que se colocará a todas as organizações interessadas em evoluir e crescer.
O que a nossa pesquisa nos demonstrou é que 69% dos principais executivos de topo acredita que a computação quântica irá ter um impacto revolucionário ou transformacional nas suas organizações num futuro muito próximo.
Obviamente, como em qualquer ideia ou tecnologia disruptiva, os custos iniciais poderão ser incomportáveis para a maioria das organizações, pelo que são sugeridas as seguintes linhas de ação de forma concertada:
- Cada empresa deverá identificar e reavaliar os maiores desafios e barreiras no seu setor. Deverá especialmente identificar o que hoje é considerado “impossível”. Imagine como a sua indústria – e empresa– mudaria fundamentalmente, se esses problemas inultrapassáveis pudessem ser resolvidos com eficiência.
- As empresas deverão começar a apostar nestes novos modelos de computação. Criando, ou aderindo a grupos de especializados para analisar a evolução destes modelos e de adesão aos mesmos nas suas indústrias ou setores, não deixando de ficar alerta às notícias que surgem de outros lados (não nos devemos esquecer que a Amazon foi criada para a venda de livros escolares).
- Determine qual a classe de modelo computacional que terá um maior impacto na sua indústria ou setor. Se por um lado a computação quântica pode ser uma vantagem competitiva para a indústria financeira, a capacidade de registo de informação infinita nos modelos de computação biológica e o seu quase nulo consumo de energia, poderá ser uma maior vantagem para empresas farmacêuticas, sendo a capacidade da utilização de HPCvantajosa para empresas da área industrial ou na produção automóvel.
- Os desafios que se antecipam para a adoção plena destas novas tecnologias são imensos para qualquer organização. As parcerias serão fundamentais e as organizações deverão iniciar, desde já, uma aproximação aos novos fornecedores destas tecnologias, que poderão ser fundamentalmente diferentes dos atuais.
- Independentemente das parcerias criadas, será também necessário o desenvolvimento do conhecimento interno nas organizações. Se hoje já se verifica uma escassez significativa na obtenção de talentos em tecnologia, esta situação só tenderá a agravar-se à medida que estas novas tecnologias começarem a tornar-se comuns no mercado. Será necessário que as organizações criem novas estratégias de identificação, aquisição e desenvolvimento destas capacidades.
A Accenture acredita que o metaverso é a “next big thing”. Como é que estas duas tendências (metaverso e supercomputadores) se relacionam?
Ainda que sem uma relação visível direta, o metaverso dependerá do sucesso destas novas supermáquinas para o seu próprio sucesso. Hoje, as experiências que temos neste novo “universo” começam a evoluir de modelos que se parecem com os jogos de computados dos anos 90, para modelos de representação gráfica que em breve irão ser tão perfeitos quanto a realidade. Para que tudo isto possa acontecer, a capacidade de processamento e a capacidade de armazenamento de dados terão de evoluir a um ritmo nunca experimentado neste setor. Para estas necessidades, a utilização de modelos de computação quântica, para a previsão de todas as nossas ações, bem como o uso de HPC para o necessário processamento de todos os dados gerados e a produção de resultados em tempo real, serão indispensáveis. Com toda esta produção de dados (estima-se que entre 2020 e 2025, o volume de dados produzidos passe dos 64 ZB para os 180 ZB) será necessário recorrer a métodos de armazenamento mais eficientes, mais baratos e mais duradouros do que os atuais, e nesta área, o armazenamento biológico em estruturas de ADN surge como a tecnologia com o maior potencial.
No entanto, o sucesso do metaverso não estará apenas dependente deste aumento da capacidade, da velocidade ou mesmo da usabilidade, outros fatores, como a necessária redução da pegada ecológica, serão absolutamente essenciais para uma plena aceitação e utilização massiva.
Se hoje, atividades como a mineração de bitcoins já gasta quase 1% de toda a eletricidade produzida mundialmente e estimativas da indústria apontam para uma necessidade de crescimento de toda a infraestrutura computacional na ordem das 1000 vezes para suportar um metaverso de acesso universal, tal como hoje é o acesso à internet, importa assegurar que todas as iniciativas serão tomadas para minimizar este efeito. Neste caso, a utilização de modelos computacionais biológicos, desenhados para o consumo quase nulo de energia poderão ser o fator chave para o sucesso, também ecológico, do metaverso.
Fonte: ECO