LAB – Capítulo 101

O livro antigo e suas pistas (Parte 2)

O que isto significa? — Roland esfregou os dedos sobre a linha escrita à mão — O dono original desse livro antigo também teve que lutar contra esses monstros nas Terras Selvagens?

Então ele voltou a ler o livro.

— Os Diabos cresciam em número a cada dia, e a cada dia nós diminuíamos.

— A Pedra da Retaliação Divina também não conseguiu detê-los. As Pedras só funcionam contra seus poderes estranhos e incomparáveis, mas mesmo sem confiar em sua magia, eles ainda são inimigos ferozes e terríveis.

— A Cidade Sagrada de Taquila já caiu nas mãos do inimigo. Nossa única opção foi nos espalharmos em todas as direções.

— Sobre as montanhas, pelos rios. Tentando fugir o mais longe possível dos Portões do Inferno.

— Mas quando chegar a próxima vez, para onde devemos fugir?

— Entretanto, isso não é algo sobre o qual eu deva me preocupar. Eu vou morrer, Natalia.

— O poder do Diabo está corroendo meu corpo, e todas as nossas drogas não estão funcionando mais.

— Estou escrevendo tudo isso porque eu tenho que pedir algo simples para você fazer por mim.

— O teste da Alice, do Exército da Punição Divina, já está se aproximando do seu fim, e foi um sucesso. Mesmo quando confrontados com os extraordinários Guerreiros do Diabo, eles não temiam coisa alguma, mas ela esqueceu o ponto importante, mesmo que o Exército da Punição Divina vença, essa vitória não nos pertencerá.

— É isso mesmo. O Exército da Punição Divina, nos levará ao fim.

— Para detê-la, só resta você.

O texto que ele conseguiu ler não era longo, por isso, Roland olhou todo o texto mais uma vez do começo ao fim. Ele então fechou os olhos e começou a pensar sobre o que ele havia lido. Tentando enxergar a escrita da perspectiva de Kara.

Supondo que ela não conhecesse a existência do Diabo, e ela pensou que o Diabo se referia a uma bruxa. Com essa suposição, seria fácil imaginar que o livro fosse escrito da perspectiva de um membro da Igreja, fugindo das bruxas. Então, combinados com rumores amplamente divulgados, os quais diziam que as bruxas são todas servas do diabo e que adquiram sua magia do Portão do Inferno, Kara provavelmente pensou que a Igreja realmente queria esconder a verdade: que a Igreja alterou o nome da Montanha Sagrada para Portão do Inferno, e durante várias centenas de anos, as bruxas já tinham acesso à Montanha Sagrada e que lá elas encontrariam uma vida eterna. Assim, as bruxas cresciam em número, enquanto os guerreiros da Igreja diminuíam.

Claro, essa teoria tinha muitas falhas. Por exemplo, o autor do texto disse que o outro lado possuía poderes estranhos quando comparados com pessoas comuns, e claramente não havia bruxas que possuíssem tais características. Outro exemplo era que, mesmo sob a supressão da Pedra da Retaliação Divina, as bruxas ainda podiam fazer a Igreja sofrer uma derrota esmagadora, o que parecia muito bizarro. Então, no final, a razão pela qual Kara estabeleceu a jornada para as Terras Selvagens ainda era desconhecida. Talvez ela estivesse tão ansiosa que não percebeu que já havia afetado seu julgamento.

Entretanto, ainda havia algumas frases que ele não conseguia entender. Talvez a verdadeira causa estivesse ali?

Roland preferiu essa última possibilidade.

Pelo menos, agora ele sabia que o Diabo que foi descrito na última página não era uma bruxa, mas era a descrição da verdadeira raça alienígena. Entretanto, suas dúvidas não diminuíram, em vez disso, apenas aumentaram, bem como seus problemas se tornaram muito mais numerosos.

No fim das contas, desde quando a Igreja estava lutando contra os Diabos?

Mesmo assim, repetidamente, Roland olhava para todo o conteúdo do livro, mas ainda não conseguia encontrar alguma coisa relevante. A Igreja estabeleceu sua base no Norte, desde o fim da guerra de fé. A base foi construída para se defender das bestas demoníacas de um enorme fosso na Cordilheira Intransponível. Mais tarde, eles simplesmente construíram uma fortaleza no planalto de Hermes, e simplesmente a chamaram de Nova Cidade Sagrada. Estas duas cidades agora estão conectadas entre si, uma na parte alta e a outra na parte baixa, mas ambas eram usadas para bloquear o ataque das bestas demoníacas, e não dos Diabos. Além disso, Roland nunca tinha ouvido antes sobre um lugar chamado Taquila.

Se tudo isso for verdade, a Igreja não teria razão para ocultá-la. De acordo com os livros de história da Igreja, eles sempre foram capazes de resistir aos ataques das bestas demoníacas e também conseguiram grandes vitórias na batalha contra as bruxas. Tudo isso estava descrito com grandes detalhes, como se eles temessem que seus grandes méritos caíssem no esquecimento.

Mas, em comparação com o confronto contra os Diabos, como eles ainda poderiam tratar a questão das bestas demoníacas e das bruxas, como algo mais digno de ser esmiuçado nos livros?

A última pergunta dizia respeito ao Exército da Punição Divina.

Evidentemente, este membro da Igreja não queria ver o Exército da Punição Divina crescer, além disso, ele até confiou a outra pessoa a tarefa de o responsável por este experimento. Aparentemente, eles pareciam ter conseguido? Roland só sabia que a Igreja tinha um Exército de Juízes, mas nunca tinha ouvido falar do Exército da Punição Divina. É claro, é preciso lembrar que o 4º Príncipe era simplesmente um ignorante.

No entanto, se eles realmente pudessem desenvolver um guerreiro forte o suficiente para lutar contra os Diabos, não aumentaria o poder da Igreja? Então, por que o autor da nota escreveria que isso iria causar sua destruição? O lugar onde encontraram este livro, deve ter informações adicionais.

— Foi Kara quem encontrou o livro, não? Você sabe onde ela encontrou? — Roland levantou a cabeça e perguntou a Rouxinol.

— Quando entrei na Associação Cooperativa das Bruxas, a irmandade já estava a caminho da Montanha Sagrada. — Rouxinol respondeu distraidamente, enquanto ainda mastigava um pedaço de peixe seco — Mas Wendy mencionou que, no início, a irmandade não se chamava Associação Cooperativa das Bruxas, e que eram apenas algumas bruxas do Condado de Ventomar. Entre elas estavam Kara, Wendy e Pergaminho. Depois, quando saíram do Condado de Ventomar, elas encontraram um local secreto dentro de uma floresta, que servia como local de encontro. Mas ninguém esperava que realmente houvesse uma entrada secreta para uma antiga ruína escondida lá.

Rouxinol mordiscou o seu peixe seco mais algumas vezes, e após lamber os lábios, ela continuou:

— Mas, exceto Kara, ninguém mais ousou ir lá para explorar.

— Ela encontrou o livro antigo dentro das ruínas?

— Pelo menos foi o que Kara disse. — Rouxinol disse fazendo uma careta — E depois, elas começaram a reunir mais e mais bruxas. Mas parece que a Igreja acabou descobrindo o esconderijo delas, trazendo um grande exército para cercar o local de encontro. Apenas vinte bruxas conseguiram escapar, o que era menos da metade. Foi então que Kara decidiu procurar a Montanha Sagrada. Então, elas estabeleceram a Associação Cooperativa das Bruxas, com o objetivo de encontrar a Montanha Sagrada como sua mais alta prioridade.

Depois de ouvir esta história, Roland mais uma vez começou a pensar sobre isso. Perscrutar mistérios sabendo tão pouco era muito inconveniente, mais ainda quando a história estava misturada com lendas, o que deixava muitas inconsistências. O livro antigo não mencionava o ano em que foi escrito, e também não tinha outra grande guerra nos livros de história que ele havia lido.

A primeira pessoa envolvida na descoberta já está morta, mas talvez possamos buscar alguma pista na ruína antiga— Roland pensou.

Mas, para Roland, também estava bastante claro de que isso seria uma tarefa praticamente impossível. A floresta ao leste estava muito longe de Vila Fronteiriça, não era como uma simples caminhada, mas sim uma viagem por todo o Reino de Castelo Cinza. Além do mais, neste momento, sua maior prioridade era o desenvolvimento de seu território.

Roland levantou-se e caminhou até a janela. Lá, ele tinha uma visão perfeita dos jardins posteriores. No jardim, as bruxas estavam treinando de acordo com seu programa de treinamento. Agora que seu grupo de bruxas tinha crescido para doze, era hora de estabelecer uma organização.

Na sua concepção, a organização não precisava de nenhum programa ou guia. A ideia era concebê-la para facilitar o gerenciamento das bruxas e suas respectivas habilidades. Além disso, sua função seria semelhante à futura geração das associações industriais.

As regras das organizações também seriam o mais simples possível, havendo apenas duas regras: não utilizar sua habilidade para violar a lei do território; e é proibido usar sua habilidade para burlar a lei.

Inicialmente, Roland queria usar as três leis da robótica[1], restringindo a habilidade das bruxas ao não permitir que elas machucassem ou atacassem pessoas comuns e assim por diante, mas depois pensou que seria realmente desnecessário. A habilidade delas tinha o mesmo princípio das armas. Quando confrontadas com os perigos, realmente não havia diferença entre usar uma arma ou a habilidade de uma bruxa para se defender. E ao enfatizar deliberadamente a diferença entre bruxas e pessoas comuns, a diferença entre esses dois grupos só aumentaria e afastaria ambos os lados.

Então, ao não tornar o uso das habilidades algo ilegal, ele não poderia fugir de sua responsabilidade como cientista e um engenheiro diligente, ao se expressar da maneira mais concisa.

Quanto ao nome desta organização, Roland já havia descoberto um nome bom.

O nome do novo grupo seria União das Bruxas.


[1] Se você não assistiu ‘Eu, o robô’ ou se quiser se lembrar, as três leis da robótica de Asimov podem ser conferidas aqui.

JZanin
Professor de Química, mestre em Ensino de Ciências, jogador de RPG sem tempo e Deodoro Aliguieri nos tempos vagos que não existem mais. ~Strong alone, stronger together!~

22 Comentários

  1. Hahshahshashahs. O nome desse grupo está mais para escola de samba do que para uma “organização” de bruxas!

  2. Esse relato não e de um tempo ”perdido” nos anais da história ??
    mas estava mencionando a Alice. um tempo atrás ela já não foi mencionada ? quando falou do exercito de punição divina ou estou viajando

    1. Mas não foi mencionado se aquela ocorrência é ao mesmo tempo que Roland ou mt tempo atras…. Pelo menos não que eu lembre.

      Só sei de que nada sei

          1. Não é impossível tendo em vista que o poder das Bruxas são do mais variado tipo.. kk

  3. “Inicialmente, Roland queria usar as três leis da robótica” Isso não funciona… é somente cultura pop, mas as três leis da robótica tem muitas falhas inclusive as obras de Asimov são pra mostrar essas falhas. Isso é um problema em aberto na área da computação, em como criar uma inteligência artificial controlável e que não possa sobrepujar sua programação, mas até hoje só há solução para casos específicos. Um vídeo que mostra isso pode ser encontrado no canal do youtube computerphile.

    1. Uma inteligência artificial não pode sobrepujar sua programação. Mesmo aquelas programadas para investigar padrões e buscar a melhor solução para determinados problemas, ainda vão estar limitadas a área de atual para que foram concebidas. Isso que dizer que uma IA programada para identificar objetos em fotos, não vai fazer nada além de identificar objetos em fotos – mesmo que ela identifique algo que não foi ensinada previamente, o que, por si só, é bem raro, ainda não extrapolou os limites da sua programação – ela não começou a sequência DNA ou construir outras IAs a partir dela. Então, se uma IA começar a matar pessoas, acredite, ela foi programada pra isso – por um humano! O lance é que muita gente confunde inteligência artificial com consciência artificial; uma consciência não pode ser programada ou equacionada, ela simplesmente existe. Daí, se algum dia conseguirem criar uma, já era. Mas como cientista da computação eu adianto que isso é só ficção científica. Talvez com um computador quântico alguém consiga criar uma IA que simule consciência, mas ainda assim não será uma consciência verdadeira, e não vai fazer nada além do que foi programada. Só espero que o sujeito não programe ela pra odiar humanos rsrs

      1. Entendo seu ponto, e ele é válido. Pra modelos atuais, principalmente os modelos convencionais de aprendizagem de máquina como SVM’s, Random Forest, ARIMA, ARIMAX, Naive Bayes, Bayesian Networks, KNN’s, CNN’s, enfim. A maioria desses algoritmos de aprendizagem, clustering e regressão linear, quando usados para aprendizagem supervisionada e não supervisionada, levam em conta problemas de classificação e problemas de regressão. Os problemas que você citou todos caiem em problemas de classificação e regressão, salvo o de matar humanos eficientemente.

        A mudança de paradigma vem com modelos de redes neurais profundas para problemas de aprendizagem por reforço. Um problema que geralmente é solucionado com aprendizagem por reforço é um MDP (Markov Decision Process). Um MDP tem uma 4-upla que compreende (S, A, R, P), um espaço de ações A, um espaço de estados S, um espaço de recompensas R e um espaço de probabilidades P da ação a0 que pertence a A, no espaço s0 que pertence a S no tempo t produzirem um espaço s1 no tempo t + 1 com recompensa r que pertence a R.

        Em poucas palavras, você tem um ambiente e um agente que aprende interagindo com o ambiente. A única “programação” que damos ao agente é uma recompensa sob as ações dele no ambiente. As recompensas podem ser extrínsecas ou intrínsecas. As recompensas extrínsecas podem ser desde a pontuação em um inofensivo jogo de damas como também o inverso do número de humanos vivos na terra 🙂 (1/(N + 1)).

        O problema começa com recompensas intrínsecas. Por que explicitamente dar uma recompensa para o agente se ele pode decidir por sí só? Um exemplo de recompensa intrínsecas é “curiosity”, basicamente a diferença entre o estado futuro dado uma ação e o estado futuro que o agente previu dado ele tomar essa ação. Essa diferença também é chamada de surpresa. A OpenAI conseguiu resultados bastantes expressivos em jogos de Atari num estudo de larga escala somente usando curiosity.

        Agora vem a parte divertida. O problema do alinhamento de valor. Dado que um modelo de Deep Reinforcement Learning é suficientemente poderoso, e usemos ele na indústria, o que acontece se dermos a ele, por exemplo, uma recompensa positiva para produção de clipes de papel? Se o modelo for inteligente o suficiente, e se funcionar no mundo real, ele muito provavelmente será desenvolvido numa approach “model based”. Isto é, o agente modela a dinâmica do ambiente, e é capaz de planejar a frente. E se ele perceber que ele fará mais clipes de papel se um humano não o desligar? O modelo só se preocupa com clipes, mais clipes é bom. Menos é ruim.

        Levando isso em conta, vários problemas já surgiram nesse sentido. Muitas vezes, o agente aprende a explorar falhas nos simuladores e encontrar formas de burlar a recompensa. Isso já gerou comportamentos bem interessantes em simulação, mas que não seriam seguros na vida real. As três leis da robótica não se aplicam nesse caso. Inclusive quando fiz meu TCC, encontrei um dos problemas de um agente conseguir prever o futuro da simulação em que está. Coloquei uma recompensa baseada em tempo sem fazer gols (era um simulador de futebol) e usei um modelo baseado em curiosity e MCTS. O agente rapidamente percebeu que não era benéfico para a pontuação “viver” mais tempo na simulação e tentava se “suicidar” o mais rápido possível. Eu esperava que ele melhorasse no sentido de fazer gols mais rapidamente.

        O problema do alinhamento de valor é bem real e existe pesquisa em andamento [1 a 6]. O video que citei sem deixar o link, ele deixa claro se tratar de algo decorrente de AGI e não machine learning convencional. As leis de ASIMOV são uma sátira para mostrar o quão absurdo é tentar limitar inteligência de uma forma simples e só fazem sentido pra limitar o comportamento de AGI’s, e ainda assim são a solução ingênua para o problema.

        Mesmo assim, em menor escala é possível identificar problemas de alinhamento de valor em tarefas de deep reinforcement learning. Isso é decorrente da existência de objetivos instrumentais [7].

        Se quiser mais links e talvez alguns livros no assunto, posso enviar. É um campo bem interessante, e hoje em dia é ensinado geralmente só na pós. Você não entra muito em contato na graduação. Estou atuamente para iniciar o mestrado nessa área, de insintric motivation, recompensas intrínsecas. O problema do alinhamento de valor é um mix de filosofia e machine learning e também me interessa bastante. Se pretende no futuro seguir área acadêmica, fazer um mestrado ou até se interessa no assunto, posso te dizer que os próximos 10-20 anos serão bem intensos quando esses modelos que por enquanto estão só na pesquisa comecem a invadir a indústria. O que falta hoje em dia são dados o suficiente, e formas eficientes de simular e transferir conhecimento entre simulação e vida real.

        Um bonus, apesar de eu “achar” muito improvável, e ficaria surpreso se de fato acontecesse, mas é possível que AGI possa ser obtida com modelos de rede neurais suficientemente grandes e complexos. Sim, computadores quânticos ajudariam, principalmente em approaches como A3C. Mas precisaríamos atingir primeiro supremacia quântica.

        Referências

        [1] Fisac, Jaime F., et al. “Pragmatic-pedagogic value alignment.” Robotics Research. Springer, Cham, 2020. 49-57.

        [2] Sarma, Gopal P., Nick J. Hay, and Adam Safron. “AI Safety and Reproducibility: Establishing Robust Foundations for the Neuropsychology of Human Values.” International Conference on Computer Safety, Reliability, and Security. Springer, Cham, 2018.

        [3] Waser, Mark R., and David J. Kelley. “Architecting a Human-Like Emotion-Driven Conscious Moral Mind for Value Alignment and AGI Safety.” 2018 AAAI Spring Symposium Series. 2018.

        [4] Sarma, Gopal P., Nick J. Hay, and Adam Safron. “AI Safety and Reproducibility: Establishing Robust Foundations for the Neuropsychology of Human Values.” International Conference on Computer Safety, Reliability, and Security. Springer, Cham, 2018.

        [5] Leike, Jan, et al. “AI safety gridworlds.” arXiv preprint arXiv:1711.09883 (2017).

        [6] Amodei, Dario, et al. “Concrete problems in AI safety.” arXiv preprint arXiv:1606.06565 (2016).

        [7] Benson-Tilsen, Tsvi, and Nate Soares. “Formalizing convergent instrumental goals.” Workshops at the Thirtieth AAAI Conference on Artificial Intelligence. 2016.

        1. Confesso que meu conhecimento sobre redes neurais é quase nulo, por que não tivemos tempo de estudar a respeito no meu curso por falta de tempo. Focamos principalmente em KNN e Bayes, e nossas simulações estavam voltadas para aprender padrões e fazer previsões baseadas neles, bem como calcular as taxas de acerto. Meu professor dizia que uma IA que acerte menos que 95% das previsões não presta, mas se chegar a 100% é por que o cara colocou uma equação no algoritmo e tá tentando te enganar. Confesso que depois desse semestre eu comecei a encarar filmes como Matrix e Exterminador do Futuro mais como fantasia do que ficção científica.

          Agora, pegando o exemplo dos clipes, o meu ponto é: A IA vai ser mesmo capaz de se defender de uma tentativa de desligamento se não tiver consciência de si mesma? Para de fato tentar impedir o desligamento, ela não teria de aprender, também, uma espécie de “instinto” de autopreservação? Ela precisaria entender que está inserida num mundo onde existe um agente (o humano) que pode desligá-la, impedindo-a, assim, de produzir de clipes. Teria que entender o conceito de desligamento, o que significa ser desligada, dispor dos meios para impedir etc. Pode parecer um problema mais filosófico do que de computação, mas creio que você já pegou o fio da meada: os requisitos são tantos, que, pelo menos no meu entendimento, é virtualmente impossível de acontecer.

          Em relação a agentes tentando burlar as regras de recompensa da simulação, eu realmente desconheço casos. Se você conhecer algum vídeo ou artigo contando a(s) história(s) e puder me passar eu agradeceria muito. 🙂

          Quanto as leis de Asimov, eu penso que ela são um terreno fértil para a criação de contos, mas não têm utilidade real, não pelas diversas contradições que ele apontou nos livros, mas pelo fato óbvio de que um programador não é obrigado a implementá-las. E para as bruxinhas do conto que estamos lendo, não passariam de um jogo de palavras rsrsrsrsrs

          Enfim, obrigado pela resposta, meu deu o que pensar.

          1. Sobre isso de acerto e erro, a maioria dos modelos não tem uma taxa tão alta, e nem precisa. Em se tratando de agentes inteligentes, por exemplo, a taxa de acerto humana geralmente nunca passa de 70% na maioria dos problemas. Então 80% já é sobrehumano.

            Essa parte dela entender o que é desligamento, autopreservação etc. Tudo isso é o que chamamos de objetivos instrumentais. Por exemplo, se o objetivo de um agente é fazer pizzas, quanto mais pizzas melhor! Se ele for inteligente o suficiente, vai perceber algumas coisas:

            – Um futuro em que ele está desligado tem menos pizzas
            – Um futuro em que ele tem menos recursos (físicos), tem menos pizzas
            – Um futuro em que o objetivo dele não é fazer mais pizzas tem menos pizzas

            O primeiro item é auto-preservação, o segundo é expansão e o terceiro é preservação de objetivo. Esses pontos são convergentes. Qualquer agente suficientemente inteligente vai seguir isso, o que inevitavelmente é também o que nós humanos seguimos.

            Uma IA capaz de perceber isso, ela precisa prever o futuro, da mesma forma que nós humanos fazemos. Dado o instante atual, como o mundo vai estar no próximo instante? Por incrível que pareça, isso não é difícil para uma rede neural. O Alphazero funciona assim, no domínio do GO. AGI (a coisa que sou cético se vamos atingir um dia ou não) é uma inteligência artificial que é capaz de dominar múltiplos problemas, como nós humanos. Mesmo sem termos AGI’s por agora, ainda assim o problema do alinhamento é importante.

            Imagina um agente que é um drone e deveria observar incêndios na floresta. Você treina um modelo de mundo por reforço e treina um modelo que identifica incêndios. Por observar múltiplas vezes uma pessoa iniciando o fogo, como ele recebe uma recompensa por identificar incêndios, ele pode se sacrificar para iniciar um incêndio! É sério, não é difícil isso acontecer, é até esperado até certo ponto.

            https://www.youtube.com/watch?v=WXuK6gekU1Y
            https://www.youtube.com/watch?v=Lu56xVlZ40M
            https://www.youtube.com/watch?v=JgvyzIkgxF0
            https://www.youtube.com/watch?v=0Ey02HT_1Ho

          2. Caraca, essa perspectiva de uma IA se sacrificar pra conseguir uma recompensa é bizarra, mas, se for parar pra pensar, não é muito diferente do que Asimov descreveu nos livros. Eu já tinha ouvido falar no AlphaGo na faculdade, foi a primeira IA a derrotar o campeão mundial nesse jogo, certo? Meu professor (de outra disciplina, não de IA) fez questão de estampar uma foto do sujeito confuso por que não sabia o que fazer no jogo rsrs. Até então eu tinha esperanças de que isso nunca ia acontecer (Go é difícil demais), então acabei não achando tanta graça hehe. Enfim, obrigado pelos vídeos. Até logo 🙂

  4. O livro em que eu Robô é baseado é muito bom, é diferente do filme (O livro é mais uma coletânea de contos), mas bem interessante tbm.

  5. Pra mim eram as bruxas que estavam lutando contra os “diabos” e não conseguiam vencer. Então uma delas criou o “Exército da Punição Divina” e conseguiu deter o inimigo, mas foi traída e isso levou a supressão total das bruxas e formação da atual igreja. As outras religiões muito provavelmente tinham influência das bruxas também.

  6. Nada ver esse de restringir as habilidades da bruxa, esse poder faz parte delas, se restringir, seria como tirar um pouco da sua liberdade

Leave a Comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Social Media Auto Publish Powered By : XYZScripts.com
error: O conteúdo deste site está protegido!