EDILSON MARCELINO SILVA MODELAGEM DO CO2 EVOLUÍDO DE ARGISSOLO TRATADO COM DEJETOS DE SUÍNO POR MODELOS DE REGRESSÃO NÃO LINEARES: PRIORIS DE MÁXIMA ENTROPIA LAVRAS - MG 2020 EDILSON MARCELINO SILVA MODELAGEM DO CO2 EVOLUÍDO DE ARGISSOLO TRATADO COM DEJETOS DE SUÍNO POR MODELOS DE REGRESSÃO NÃO LINEARES: PRIORIS DE MÁXIMA ENTROPIA Tese apresentada à Universidade Federal de Lavras, como parte das exigências do Programa de Pós-Graduação em Estatística e Experimentação Agropecuária, área de concentração em Estatística e Experimentação Agropecuária, para a obtenção do título de Doutor. Prof. Dr. Joel Augusto Muniz Orientador LAVRAS - MG 2020 Ficha catalográfica elaborada pelo Sistema de Geração de Ficha Catalográfica da Biblioteca Universitária da UFLA, com dados informados pelo(a) próprio(a) autor(a). Silva, Edilson Marcelino. Modelagem do CO2 evoluído de argissolo tratado com dejetos de suíno por modelos de regressão não lineares: prioris de máxima entropia / Edilson Marcelino Silva. – Lavras : UFLA, 2020. 86 p. : il. Tese(doutorado)–Universidade Federal de Lavras, 2020. Orientador: Prof. Dr. Joel Augusto Muniz. Bibliografia. 1. Inferência bayesiana. 2. Priori objetiva. 3. Decomposição. I. Muniz, Joel Augusto. II. Título. EDILSON MARCELINO SILVA MODELAGEM DO CO2 EVOLUÍDO DE ARGISSOLO TRATADO COM DEJETOS DE SUÍNO POR MODELOS DE REGRESSÃO NÃO LINEARES: PRIORIS DE MÁXIMA ENTROPIA Tese apresentada à Universidade Federal de Lavras, como parte das exigências do Programa de Pós-Graduação em Estatística e Experimentação Agropecuária, área de concentração em Estatística e Experimentação Agropecuária, para a obtenção do título de Doutor. APROVADA em 09 de junho de 2020. Prof. Dr. Marcelo Ângelo Cirillo UFLA Prof. Dr. Tales Jesus Fernandes UFLA Prof. Dr. Paulo Henrique Sales Guimarães UFLA Prof. Dr. Sílvio de Castro Silveira FEOL Prof. Dr. Joel Augusto Muniz Orientador LAVRAS - MG 2020 À minha filha, Giovana, pela admiração, amizade, amor e por alegrar todos os dias da minha vida. AGRADECIMENTOS À Deus que me deu força em todos os momentos da vida e por todas as bênçãos concedidas. Meus sinceros agradecimentos ao professor Dr. Joel Augusto Muniz, se não fosse sua orientação não poderia estar concluindo mais esta etapa importante em minha vida. Obrigado pela compreensão, paciência, sugestões, críticas e pelas experiências compartilhadas. Aos demais professores do Programa de Pós-Graduação em Estatística e Experimen- tação Agropecuária, pelo conhecimento transmitido e contribuições para minha formação. Aos meus professores de inferência bayesiana, Thelma Sáfadi e Márcio Balestre, cursar a disciplina foi fundamental para elaboração deste trabalho. Ao Núcleo de Estudos em Regressão Não Linear Aplicada (NLIN), nossas reuniões muito contribuíram para o desenvolvimento deste trabalho. Agradecimento especial pelos trabalhos em equipe publicados com Thaís, Tales, Sílvio, Sérgio, Felipe, Gustavo, Édipo, Ariana e Lucivânia. Aos professores, membros da banca de qualificação e defesa da tese, Tales, Marcelo Cirillo, Paulo Henrique, Adrielle e Sílvio, pois as sugestões foram fundamentais na realização deste trabalho. À Universidade Federal de Lavras, por me propiciar a oportunidade de fazer graduação e pós-graduação de forma gratuita e de qualidade e a todos os funcionários do DES e do DEX. À minha filha Giovana pelo carinho e amor. Aos meus pais, Terezinha e João, as minhas irmãs Lucilene e Wanderléia, ao meu sobrinho Fernando e aos meus cunhados, Geysson e Thiago, pelas orações, incentivo, amor e pelos momentos de descontração. A todos os colegas de mestrado e doutorado pelos estudos, amizade e momentos de alegria. Aos familiares e a todos que torceram pela realização deste trabalho. O presente trabalho foi realizado com apoio da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - Brasil (CAPES) - Código de Financiamento 001 e do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq). Ignorance is preferable to error and he is less remote from the truth who believes nothing than he who believes what is wrong. Thomas Jefferson (1781) ‘Your act was unwise,’ I exclaimed ‘as you see by the outcome.’ He solemnly eyed me. ‘When choosing the course of my action,’ said he, ‘I had not the outcome to guide me.’ Ambrose Bierce Inside every Non-Bayesian, there is a Bayesian struggling to get out. Dennis V. Lindley RESUMO A criação de suínos é uma atividade importante do agronegócio brasileiro. Nos últimos anos a produção da suinocultura tem aumentado e consequentemente a quantidade de dejetos líquidos. Os dejetos de suínos tem alto potencial poluidor e uma forma adequada do descarte dos dejetos são nos solos agrícolas, visto que o mesmo é rico em matéria orgânica e nutrientes. A matéria orgânica pode acelerar a atividade dos microorganismos responsáveis pela decomposição e como consequência liberação dos minerais contido nos resíduos. A quantidade de CO2 liberada no início da decomposição é maior, pois são mineralizadas as substâncias de fácil degradação, com o passar do tempo a quantidade de CO2 liberada reduz, devido a decomposição apenas das substâncias mais resistentes a degradação. A dinâmica de decomposição pode ser descrita por modelos de regressão não lineares, no entanto, a teoria para modelos de regressão são válidas assintoticamente e, em geral, nas pesquisas se trabalha com pequenas amostras. Uma alternativa é usar a metodologia bayesiana que tem se mostrado eficiente mesmo com pequenas amostras. No entanto, críticas tem sido feitas a abordagem bayesiana pelo efeito que uma distribuição a priori subjetiva pode ter na distribuição a posteriori. Uma forma de determinar prioris objetivas é por meio das distribuições a priori de máxima entropia. Assim, o trabalho tem como objetivo utilizar prioris de máxima entropia aos parâmetros dos modelos não lineares Stanford & Smith e Cabrera na descrição dos dados de mineralização do CO2 de dejetos de suínos aplicados na superfície do solo. Além disso, por meio de dados simulados, compreender o efeito que os hiperparâmetros da distribuição a priori tem na curva a posteriori dos modelos Stanford & Smith e Cabrera. Ambos os modelos não lineares por meio da metodologia bayesiana com prioris de máxima entropia foram eficientes no estudo dos dados de mineralização de carbono de dejetos de suínos na superfície do solo, além disso, o método bayesiano mostrou-se uma alternativa viável para contornar o problema do tamanho amostral. Foi mostrado como os valores dos hiperparâmetros das distribuições a priori influenciam na curva a posteriori dos modelos Stanford & Smith e Cabrera. O modelo não linear Cabrera promoveu maior ganho de informação com base na medida de Kullback-Leibler. Palavras-chave: Inferência bayesiana. Priori objetiva. Decomposição. Modelo Stanford & Smith. Modelo Cabrera. ABSTRACT Pig breeding is an important agribusiness activity in Brazil. In recent years pig production has increased and, consequently, the amount of liquid waste. Swine manure has a high polluting potential and an appropriate way to dispose of manure is on agricultural soils, since it is rich in organic matter and nutrients. Organic matter can accelerate the activity of microorganisms responsible for decomposition and, as a consequence, release of minerals contained in waste. The amount of CO2 released at the beginning of decomposition is greater, since substances that are easily degraded are mineralized, over time the amount of CO2 released decreases, due to the decomposition of only the most resistant substances. The decomposition dynamics can be described by nonlinear regression models, however, the theory for regression models is asymptotically valid and, in general, in research, small samples are used. An alternative is to use the bayesian methodology which has been shown to be efficient even with small samples. But criticism has been made of the bayesian approach for the effect that a subjective prior distribution can have on the posterior distribution. One way to determine priors objectives is through maximum entropy prior distributions. Thus, the work aims to use maximum entropy priors to the parameters of the nonlinear models Stanford & Smith and Cabrera in the description of the mineralization data of CO2 of swine manure applied on the soil surface. In addition, using simulated data, to understand the effect that the hyperparameters of the distribution a prior have on the curve a posterior of the Stanford & Smith and Cabrera models. Both nonlinear models using the bayesian methodology with maximum entropy prior were efficient in studying the data of carbon mineralization of swine manure on the soil surface, in addition, the bayesian method proved to be a viable alternative to circumvent the problem of sample size. It was shown how the values of the hyperparameters of the a prior distributions influence the posterior curve of the Stanford & Smith and Cabrera models. The nonlinear Cabrera model promoted greater information gain based on the Kullback-Leibler measure. Keywords: Bayesian inference. Objective prior. Decomposition. Stanford & Smith model. Cabrera model. LISTA DE FIGURAS Figura 2.1 – Universo reduzido, dado que o evento A tenha ocorrido. . . . . . . . . . . 18 Figura 2.2 – Universo reduzido dado que o evento A tenha ocorrido, juntamente com os p eventos que dividem o universo reduzido. . . . . . . . . . . . . . . . . . 20 Figura 3.1 – Tratamento dejetos líquidos na superfície do solo. . . . . . . . . . . . . . . 41 Figura 3.2 – Densidade amostral das distribuições a priori do modelo Stanford & Smith. 44 Figura 3.3 – Densidade amostral das distribuições a priori do modelo Cabrera. . . . . . 46 Figura 4.1 – Influência do hiperparâmetro σ2 c na curva a posteriori. Influência de (a) σ2 c = 10, (b) σ2 c = 1000 e (c) σ2 c = 10000 mantendo os outros hiper- parâmetros constantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 Figura 4.2 – Influência do hiperparâmetro σ2 v na curva a posteriori. Influência de (a) σ2 v = 3, (b) σ2 v = 25 e (c) σ2 v = 100 mantendo os outros hiperparâmetros constantes. O valor indicado com a reta vertical indica o tempo de meia vida a posteriori. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 Figura 4.3 – Influência do hiperparâmetro δ na curva a posteriori. Influência de (a) δ = 1 10002 , (b) δ = 1 1002 e (c) δ = 1 1 mantendo os outros hiperparâmetros constantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 Figura 4.4 – Influência do hiperparâmetro σ2 c na curva a posteriori. Influência de (a) σ2 c = 1000, (b) σ2 c = 3000 e (c) σ2 c = 10000 mantendo os outros hiperparâmetros constantes. . . . . . . . . . . . . . . . . . . . . . . . . . 61 Figura 4.5 – Influência do hiperparâmetro σ2 v na curva a posteriori. Influência de (a) σ2 v = 5, (b) σ2 v = 35 e (c) σ2 v = 70 mantendo os outros hiperparâmetros constantes. O valor indicado com a reta vertical indica o tempo de meia vida do carbono facilmente mineralizável a posteriori. . . . . . . . . . . . 62 Figura 4.6 – Influência do hiperparâmetro σ2 k na curva a posteriori. Influência de (a) σ2 k = √ 0,1, (b) σ2 k = 1 e (c) σ2 k = 3 mantendo os outros hiperparâmetros constantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 Figura 4.7 – Influência do hiperparâmetro δ na curva a posteriori. Influência de (a) δ = 1 152 , (b) δ = 1 5002 e (c) δ = 1 10002 mantendo os outros hiperparâmetros constantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 Figura 4.8 – Traço modelo Stanford & Smith. . . . . . . . . . . . . . . . . . . . . . . . 65 Figura 4.9 – Traço modelo Cabrera. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 Figura 4.10 – Densidades marginais para os parâmetros do modelo Stanford & Smith. . . 67 Figura 4.11 – Densidades marginais para os parâmetros do modelo Cabrera. . . . . . . . 68 Figura 4.12 – Densidades a priori e a posteriori do modelo Stanford & Smith. . . . . . . 69 Figura 4.13 – Densidades a priori e a posteriori do modelo Cabrera. . . . . . . . . . . . 70 Figura 4.14 – Curva a priori, a posteriori e verossimilhança do modelo Stanford & Smith. 71 Figura 4.15 – Curva a priori, a posteriori e verossimilhança do modelo Cabrera. . . . . . 71 LISTA DE TABELAS Tabela 2.1 – Exemplo de possíveis resultados de um experimento com K resultados possíveis e n repetições: distribuição multinomial . . . . . . . . . . . . . . 25 Tabela 2.2 – Algumas distribuições de probabilidade e restrições necessárias para sua derivação. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 Tabela 4.1 – Fator de dependência (FD) do critério de Raftery e Lewis e valor-p do critério de Geweke. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 Tabela 4.2 – Fator de dependência (FD) do critério de Raftery e Lewis e valor-p do critério de Geweke. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 Tabela 4.3 – Média, moda e intervalo de máxima densidade a posteriori (HPD) dos parâmetros do modelo Stanford & Smith (LI: limite inferior e LS: limite superior). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 Tabela 4.4 – Média, moda e intervalo de máxima densidade a posteriori (HPD) dos parâmetros do modelo Cabrera (LI: limite inferior e LS: limite superior). . 67 Tabela 4.5 – Medida de Kullback-Leibler (KL) dos modelos Stanford & Smith e Cabrera. 72 SUMÁRIO 1 INTRODUÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2 REFERENCIAL TEÓRICO . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.1 Decomposição de resíduos orgânicos no solo . . . . . . . . . . . . . . . . . . . 14 2.2 Descrição da decomposição da matéria orgânica no solo por modelos não lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.3 Inferência bayesiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.4 Entropia da Informação de Shannon . . . . . . . . . . . . . . . . . . . . . . . 21 2.5 A derivação de Wallis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.6 Entropia diferencial de variáveis aleatórias contínuas . . . . . . . . . . . . . 26 2.7 Distribuições a priori de máxima entropia . . . . . . . . . . . . . . . . . . . . 27 2.8 Método de Monte Carlo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 2.9 Métodos de Monte Carlo via Cadeias de Markov . . . . . . . . . . . . . . . . 34 2.9.1 Amostrador de Gibbs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 2.9.2 Algoritmo Metropolis-Hastings . . . . . . . . . . . . . . . . . . . . . . . . . . 36 2.10 Diagnóstico de convergência . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 2.10.1 Critério de Raftery & Lewis . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 2.10.2 Critério de Geweke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 2.11 Avaliadores de qualidade do ajuste e critérios de seleção de modelo . . . . . . 37 2.11.1 Intervalo de credibilidade - Highest Posterior Density (HPD) . . . . . . . . . 37 2.11.2 Medida de Kullback-Leibler . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 2.12 Aplicações da metodologia bayesiana em modelos não lineares . . . . . . . . 38 3 MATERIAL E MÉTODOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 3.1 Material . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 3.2 Metodologia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 3.2.1 Modelos que foram ajustados . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 3.2.2 Distribuição a priori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 3.2.3 Verossimilhança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 3.2.4 Posteriori conjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 3.2.5 Avaliação dos modelos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 3.2.6 Estudo computacional da sensibilidade da priori . . . . . . . . . . . . . . . . 49 3.2.7 Recursos computacionais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 4 RESULTADOS E DISCUSSÃO . . . . . . . . . . . . . . . . . . . . . . . . . . 50 4.1 Condicionais completas a posteriori do modelo Stanford & Smith . . . . . . . 50 4.2 Análise da sensibilidade dos hiperparâmetros das prioris na curva a posteriori do modelo Stanford & Smith . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 4.3 Condicionais completas a posteriori do modelo Cabrera . . . . . . . . . . . . 56 4.4 Análise da sensibilidade dos hiperparâmetros das prioris na curva a posteriori do modelo Cabrera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 4.5 Análise dos dados de dejetos de suínos na superfície do solo . . . . . . . . . . 65 5 CONCLUSÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 REFERÊNCIAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 APÊNDICE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 1 INTRODUÇÃO A suinocultura é uma atividade que gera resíduos com alto potencial poluidor e apre- senta grande desafio em reduzir o impacto do seu descarte para obtenção da sustentabilidade ambiental (FERNANDES, et al., 2011; SILVA, et al., 2015). Tendo em vista que a dieta suína é rica em proteína e outros produtos, os dejetos tem elevado potencial fertilizante, podendo ser utilizados como fonte de nutrientes para as plantas. Assim, uma forma viável da ciclagem dos dejetos de suínos é no manejo agrícola (SILVA, et al. 2015; BISON PINTO, et al. 2014), o que exige conhecer os efeitos da decomposição do resíduo ao longo do tempo. A decomposição de resíduos de origem animal e vegetal desempenha importante função na dinâmica da matéria orgânica (MO) e nas características biológicas, físicas e químicas do solo. A presença de MO pode acelerar a atividade de microorganismos responsáveis pela de- composição e consequentemente liberação dos minerais contidos no material. Nesse processo, parte do carbono é liberado na forma de dióxido de carbono (CO2) e parte permanece inalterado, podendo incorporar à biomassa microbiana (MOREIRA e SIQUEIRA, 2006). No início da decomposição da MO, a quantidade de CO2 liberada é maior, uma vez que é mineralizado o carbono presente nas substâncias de fácil degradação. Com o passar do tempo, a liberação de CO2 reduz devido à mineralização do carbono presente em substâncias de difícil mineralização (PULROLNIK, 2009). Este comportamento pode ser descrito por equações matemáticas que constituem em modelos de regressão não lineares. Nesse processo os modelos não lineares tem apresentado bons ajustes e além disso, tem a vantagem de ter interpretação biológica as estimativas dos parâmetros. Os estimadores de modelos não lineares são assintoticamente consistentes, ou seja, quanto maior o tamanho da amostra, mais próximos os valores das estimativas estarão dos verdadeiros valores dos parâmetros. No entanto, as pesquisas em geral, trabalham com poucas observações podendo comprometer os resultados. Para contornar esse problema, um dos métodos de análise de dados que vêm sendo bastante usado na modelagem estatística é a inferência bayesiana, por apresentar vantagens como a possibilidade de se trabalhar com pequenas amostras (CONGDON, 2006). O método de inferência bayesiana dá-se a partir da generalização do teorema de Bayes, que são incorporadas informações a priori no processo de estimação dos parâmetros e esta informação é atualizada em uma distribuição a posteriori quando novas observações tornam-se disponíveis. 13 No entanto, quando se tem pouca informação sobre a distribuição a priori, críticas têm sido feitas a inferência bayesiana pelo efeito que a distribuição a priori possivelmente subjetiva ou arbitrária pode ter sobre as inferências, assim, esforços têm sido feitos para obter prioris objetivas (SORENSEN e GIANOLA, 2002). Segundo Jaynes (2003) uma forma de determinar prioris objetivas é por meio do método da máxima entropia, de modo que pessoas com as mesmas informações devem atribuir a mesma distribuição a priori ao parâmetro. Para dados de mineralização de resíduos orgânicos no solo, de modo geral, os pesqui- sadores têm ajustado modelos não lineares utilizando a metodologia frequentista (ANDRADE et al., 2015; FERNANDES et al., 2011; PAULA et al., 2019), então pouco se sabe sobre as distribuições de probabilidade dos parâmetros. O presente trabalho tem como objetivo utilizar prioris de máxima entropia aos parâmetros dos modelos de regressão não lineares Stanford & Smith e Cabrera na descrição dos dados de mineralização do CO2 de dejetos de suínos aplicados na superfície do solo e indicar o modelo em que houve maior ganho de informação. Além disso, por meio de dados simulados, compreender o efeito que os hiperparâmetros da distribuição a priori tem na curva a posteriori dos modelos Stanford & Smith e Cabrera. 2 REFERENCIAL TEÓRICO 2.1 Decomposição de resíduos orgânicos no solo A suinocultura é uma atividade importante da agropecuária e tem contribuição ex- pressiva na economia nacional, sendo o Brasil o 4o país maior produtor de suínos do mundo (EMBRAPA, 2018). A produção de carne suína vem crescendo no Brasil, como consequência a geração e concentração de grande volume de dejetos, necessitando diminuir o impacto do descarte desse resíduo no ambiente. Uma alternativa viável de reciclagem desse resíduo são nos solos agrícolas como matéria orgânica e fonte de nutrientes para plantas (BISON PINTO, et al. 2014), e, além disso, proteger o solo dos processos erosivos (DONEDA, et al., 2012). Para isso é fundamental, conhecer o processo de decomposição e liberação de nutrientes dos resíduos orgânicos. A emissão de dióxido de carbono (CO2) é considerada um indicador dos impactos do preparo do solo e da decomposição dos resíduos no solo. As principais fontes de CO2 na agricultura são as decomposições dos resíduos culturais e da matéria orgânica no solo, além da respiração das culturas e dos microrganismos do solo (CAMPOS, et al., 2011). Estudos estão sendo realizados para avaliar o efeito do preparo do solo e resíduos de culturas nas emissões de CO2 e sua relação com a mineralização do carbono. O uso de dejetos líquidos de suínos, associado a manejo do solo na sucessão aveia/milho foram avaliados por Bison Pinto et al. (2014), no qual os autores observaram que a aplicação de dejetos líquidos de suínos na sucessão aveia/milho promoveu incremento na produção de matéria seca e produtividade de grãos. Silva et al. (2015) avaliaram a utilização de dejetos de suíno na recuperação de pastagem. Os autores observaram que, com doses adequadas, os dejetos líquidos de suínos fornecem nutrientes para a forrageira e promoveram incremento na matéria seca da pastagem. Dois preparos do solo (convencional e plantio direto) e três sistemas de culturas foram avaliados por Campos et al. (2011). Os autores observaram que, considerando os resíduos de aveia preta, trigo e milho, a mineralização do carbono (C) foi maior no preparo convencional do que no plantio direto, enquanto que para a soja foi semelhante entre os preparos do solo. Não houve diferença na emissão média anual de CO2 entre os preparos do solo. Doneda et al. (2012) avaliaram o efeito da decomposição de resíduos de culturas puros e consorciados. O consórcio entre as espécies de cobertura do solo reduziram a taxa de decomposição dos resíduos. 15 Outros estudos tem avaliado a quantidade de matéria orgânica, levando em conta a pro- fundidade do solo (LOSS, et al., 2015), a compactação do solo (SILVA, et al., 2011), níveis de irrigação (BONA, et al., 2006) e além disso, tem avaliado a decomposição de resíduos vegetais de qualidade variável em sistemas agroflorestais (ZENG, et al., 2010), resíduos culturais puros e consorciados, formados por diferentes composições químicas em distintos preparo do solo (LOVATO, et al., 2004; AITA e GIACOMINI, 2003). 2.2 Descrição da decomposição da matéria orgânica no solo por modelos não lineares Segundo Draper e Smith (1998), os modelos de regressão podem ser classificados como lineares, não lineares e linearizáveis em relação aos seus parâmetros. Considera-se o modelo de regressão como linear quando as derivadas parciais em relação a cada parâmetro do modelo não dependem de nenhum parâmetro. Por outro lado, se, pelo menos, uma derivada parcial em relação aos parâmetros depende de algum parâmetro do modelo este é classificado como não linear. Considera-se o modelo de regressão como linearizável, se este é não linear em sua forma inicial, mas, a partir de alguma transformação, pode se tornar linear. A forma clássica de um modelo de regressão é: Yi = f (Xi,θ)+ εi em que i = 1,2, ...,n; Yi é o vetor com a variável resposta ou dependente; Xi é o vetor de uma ou mais variáveis independentes; θ é o vetor de parâmetros; f é a função que acredita-se existir entre as variáveis e εi é o vetor de erros associado ao modelo. Vários fatores afetam o processo de decomposição do resíduo no solo, e pode-se destacar a composição do resíduo e o preparo do solo. Os modelos mais usados na literatura para descrever esse processo são os modelos não lineares Stanford & Smith e Cabrera e indicar o modelo que melhor descreve esse processo é necessário para entendimento dessa dinâmica e melhor manejo dos solos agrícolas. Nesse trabalho foram avaliados os dois modelos não lineares que descrevem esse processo e que tem interpretações biológicas as estimativas dos parâmetros. Dentre as várias aplicações dos modelos não lineares, destaca-se seu uso no estudo da mineralização e liberação de resíduos orgânicos no solo. Esses modelos são soluções de equações diferenciais (SLEUTEL, et al., 2005), além disso, resumem as informações contidas nos dados em apenas poucos parâmetros fornecendo valores de estimativas com interpretações 16 biológicas e práticas úteis para os produtores rurais (SILVEIRA et al., 2018; FERNANDES, et al., 2015). O modelo Stanford & Smith tem sido o mais utilizado para se modelar a liberação de CO2 e para se estimar o índice de decomposição (k) e a quantidade de carbono potencialmente mineralizável (C0). Stanford & Smith (1972) propuseram um modelo não linear que descreve a decomposição do resíduo orgânico considerando-se apenas substâncias de carbono que são mineralizadas exponencialmente, expresso por yi =C0(1− e−kti)+ εi, em que: yi é o carbono mineralizado até o tempo ti; C0 é o carbono potencialmente mineralizável; k é o índice de mineralização; εi é o erro aleatório. Diversos autores utilizaram o modelo Stanford & Smith para estudar, a dinâmica de mineralização do carbono com resultados satisfatórios em pesquisa com dejetos de suínos (FERNANDES, et al., 2011; PAULA et al., 2019), dejetos de suíno e palha de aveia (SILVA et al., 2019a), dejetos de suínos e palha de trigo (PAULA et al., 2020), lodo de esgoto (ANDRADE, et al., 2013; ANDRADE, et al, 2016) lodo de esgoto e palha de aveia (SILVA, et al., 2019b), com cama de frango e biocarvão (ANDRADE, et al., 2015), com plantação de eucalipto (BARRETO, et al., 2010) e com espécies leguminosas (NUNES, et al., 2016). Outros trabalhos empregaram o modelo Stanford & Smith em estudos com estercos de suínos, bovinos e galinha, bem como, composto de lixo urbano e lodo de esgoto (PAULA, et al., 2013), lodo de curtume (MARTINES, et al., 2006), trigo e palha (ZHOU, et al. 2012). Cabrera (1993) propôs um modelo que considera duas frações de carbono, uma com- posta por substâncias que são facilmente decompostas, mineralizadas exponencialmente com quantidade C1 e índice de decomposição k1 e outra composta por substâncias mais resistentes que são mineralizadas constantemente k0, expresso por yi =C1(1− e−k1ti)+ k0ti + εi. em que: yi é o carbono mineralizado até o tempo ti; C1 é o carbono facilmente mineralizável, ou seja, carbono presente nas substâncias de fácil 17 degradação; k1 é o índice de mineralização do carbono facilmente mineralizável; k0 é a taxa de mineralização do carbono resistente; εi é o erro aleatório. Como o modelo considera uma quantidade que é mineralizada constantemente, este não estima quantidade de carbono potencialmente mineralizável. Sleutel et al. (2005) avaliaram o ajuste de cinco modelos não lineares na predição de carbono mineralizado, incluindo os modelos Stanford & Smith e Cabrera, a dados de mineralização de carbono de resíduos orgânicos e observaram que os modelos descreveram de forma satisfatória a dinâmica do carbono no solo. Alves et al. (1999) ajustaram três modelos incluindo os modelos Stanford & Smith e Cabrera a mineralização de nitrogênio e carbono de vinte solos e observaram que os dois elementos químicos seguiram os mesmos padrões de mineralização. O modelo Cabrera também foi ajustado a dados de mineralização de carbono de dejetos de suínos (PAULA, et al., 2019), dejetos de suínos e palha de aveia (SILVA, et al., 2019a), dejetos de suínos e palha de trigo (PAULA, et al., 2020) e lodo de esgoto com palha de aveia (SILVA, et al., 2019b). Paula et al. (2020) avaliaram a mineralização de dejetos de suínos na superfície do solo. O experimento foi realizado em laboratório e foi utilizado um argissolo vermelho distrófico arênico da camada de 0-10 cm. Os dejetos líquidos de suínos apresentaram 31,7 g kg−1 de matéria seca, 9,2 g kg−1 de carbono e pH de 8,2. Amostras do tratamento foram incubadas em recipientes de acrílico. A mineralização do carbono foi avaliada por meio da emissão de CO2, durante a incubação, medindo-se o carbono mineralizado até os 95 dias do início da incubação. Foram avaliados os modelos Stanford & Smith e Cabrera utilizando a metodologia frequentista. É importante salientar que a teoria para os modelos de regressão são válidas assintotica- mente (DRAPER e SMITH, 1998; SARI, et al., 2018; SOUZA, et al., 2010; ZEVIANI, et al., 2012), e nas pesquisas geralmente se trabalha com pequenas amostras, sendo uma alternativa utilizar a metodologia bayesiana que é eficiente mesmo em pequenas amostras. 18 2.3 Inferência bayesiana A metodologia bayesiana tem como base o Teorema de Bayes, cujo desenvolvimento se dá a partir da probabilidade condicional. Segundo Bolstad e Curran (2016) considerando-se que o evento A tenha ocorrido tem-se que o universo reduzido (Ωr) é Ωr = A. A parte do evento B que é relevante é aquela parte que é também parte de A, isto é B∩A. A Figura 2.1 mostra que, dado que o evento A tenha ocorrido, o universo reduzido agora é o evento A, ou seja, Ωr = A, e a parte relevante de B é B∩A. Figura 2.1 – Universo reduzido, dado que o evento A tenha ocorrido. Fonte: Adaptado de Bolstad e Curran (2016). A probabilidade no universo reduzido deve ser 1. Logo, a probabilidade condicional do evento B dado que o evento A ocorreu é: P(B|A) = P(B∩A) P(A) (2.1) É importante salientar que a probabilidade condicional P(B|A) é proporcional a probabilidade conjunta P(B∩A), mas foi reescalada para que a probabilidade do universo reduzido seja igual a 1. 19 De forma análoga, a probabilidade condicional de A dado B é: P(A|B) = P(B∩A) P(B) . No entanto, não será considerado os dois eventos da mesma maneira. B é um evento não observável, ou seja, a ocorrência ou a não ocorrência do evento B não é observada. A é um evento observável que pode ocorrer tanto com o evento B ou com o seu complementar B̄. Em palavras, a probabilidade do evento A é condicional à ocorrência ou não ocorrência do evento B. Multiplicando-se a probabilidade condicional acima por P(B) obtém-se: P(A∩B) = P(A|B)P(B) (2.2) Em palavras, a igualdade acima reafirma a relação de probabilidade condicional de um evento observável dado um evento não observável de forma que é possível encontrar a probabilidade conjunta P(A∩B). A probabilidade marginal do evento A é encontrada somando-se as probabilidades de suas partes disjuntas: A = (A∩B)∪ (A∩ B̄). Logo, P(A) = P(A∩B)+P(A∩ B̄) = P(A|B)P(B)+P(A|B̄)P(B̄) (2.3) Substituindo-se (2.2) e (2.3) em (2.1) tem-se o Teorema de Bayes para um evento simples: P(B|A) = P(A|B)P(B) P(A|B)P(B)+P(A|B̄)P(B̄) . Muitas vezes, tem-se o conjunto B com j = 1,2, ..., p partições do conjunto universo reduzido A, como ilustrado na Figura 2.2. Então pelo Teorema de Bayes: P(Bi|A) = P(A|Bi)P(Bi) p ∑ j=1 P(A|B j)P(B j) em que P(Bi) é a probabilidade a priori para os eventos Bi, i = 1,2, ..., p, P(A|Bi) é a verossim- ilhança e P(Bi|A) é a probabilidade a posteriori do evento Bi. O termo p ∑ j=1 P(A|B j)P(B j) na expressão acima é apenas uma constante normalizadora, assim o Teorema de Bayes pode ser 20 escrito na forma de proporcionalidade como: P(Bi|A) ∝ P(A|Bi)P(Bi). Figura 2.2 – Universo reduzido dado que o evento A tenha ocorrido, juntamente com os p eventos que dividem o universo reduzido. Fonte: Adaptado de Bolstad e Curran (2016). Para um modelo de regressão o Teorema de Bayes é expresso da seguinte forma: P(θ |y) ∝ L(y|θ)P(θ). (2.4) em que P(θ) é a probabilidade a priori para os parâmetros θi, i = 1,2, ..., p, L(y|θ) é a verossimilhança e P(θ |y) é a probabilidade a posteriori conjunta. Para fazer inferência para qualquer parâmetro é necessário obter a distribuição marginal a posteriori. Portanto, a distribuição conjunta a posteriori deve ser integrada em relação a todos os outros parâmetros do modelo. 21 2.4 Entropia da Informação de Shannon Foi proposto por Shannon (1948) uma medida quantitativa da incerteza de uma dis- tribuição de probabilidade denominada entropia da teoria da informação ou simplesmente denominada por entropia da informação. Seja X uma variável aleatória discreta, ou seja, X = {xk|k = 1,2, ...,K} em que xk é um número discreto e K é o número total de níveis discretos. Suponha que tem-se um conjunto de eventos possíveis e que as probabilidades de ocorrência sejam p1, p2, ..., pK. As probabilidades podem ser conhecidas, mas interessa saber uma medida de quão incerto é o resultado. Considera-se que o evento X = xk tem probabilidade de ocorrência, dada por: P(X = xk) = pk com as seguintes condições: 0≤ pk ≤ 1 e K ∑ k=1 pk = 1. Supondo, por exemplo, que um emissor transmita a mensagem “bom dia”, letra por letra, ao emitir as primeiras letras, há uma expectativa do receptor, que vê surgir as letras “b”, “o”, “m”, um espaço, e depois o “d”, e o “i”. O “a” final é quase inútil, pois sua probabilidade de ocorrência é tão grande, para dar sentido à sequência, que a quantidade de informação transmitida por essa letra é muito menor que a transmitida pelas primeiras. Assim, quanto menor é a incerteza ou dificuldade de previsão, menor é a quantidade de informação, e vice- versa (EMILIANO, 2009). 22 É razoável exigir que a medida de incerteza ou informação deveria obedecer algumas propriedades, ou seja, se o evento X = xk ocorre com probabilidade pk = 1, consequentemente pi = 0 para todo i 6= k. Nesse caso nenhuma “informação"é transmitida pela ocorrência do evento X = xk, pois se sabe o que deve ocorrer. Em contrapartida, se os níveis ocorrerem com diferentes probabilidades e a probabilidade pk for pequena, então há mais “informação"quando X assume o valor xk ao invés de outro valor xi com maior probabilidade pi, i 6= k (HAYKIN, 2007). Segundo Haykin (2007) a quantidade de informação, I, obtida após ocorrer o evento X = xk com probabilidade pk, está relacionada com o inverso da probabilidade de ocorrência e é definida como a função logarítmica I(xk) = log ( 1 pk ) = log(1)︸ ︷︷ ︸ =0 −log(pk) =−log(pk) em que a base do logaritmo é arbitrária. As unidades de informação são bits quando é usado o logaritmo na base 2, e quando é usado o logarítmo natural as unidades são nats. Em trabalhos analíticos que envolvem diferenciação e integração a base e as vezes é útil (SHANNON, 1948). Independente da escolha da base do logarítmo, a definição de informação exibe as seguinte propriedades: I. I(xk) = 0 para pk = 1. Se estivermos certos do resultado de um evento, nenhuma informação é obtida pela sua ocorrência. II. I(xk)≥ 0 para 0≤ pk ≤ 1. A ocorrência de um evento X = xk fornece alguma ou nenhuma informação, mas não resulta em perda de informação. III. I(xk) > I(xi) para pk < pi. Quanto menos provável for um evento, mais informação é obtida através da sua ocorrência (HAYKIN, 2007). A quantidade média de informação ou incerteza é dado por: H(X) = E[I(xk)] = K ∑ k=1 pkI(xk) =− K ∑ k=1 pklog(pk) 23 A quantidade H(X) é chamada entropia da informação de uma variável aleatória X , é chamada assim em analogia a definição a entropia na termodinâmica estatística (SHANNON, 1948). A quantidade H(X) possui várias propriedades interessantes que a substanciam como uma medida razoável de informação, sendo o intervalo dos valores da entropia H(X) como segue: 0≤ H(X)≤ log(K) em que K é o número total de níveis discretos. Duas dessas propriedades são: I. O limite inferior da entropia corresponde a nenhuma incerteza, ou seja, H(X) = 0, se e somente se a probabilidade pk = 1 para algum k, e as outras probabilidades são todas zero. Assim, somente quando se tem certeza do resultado H(X) é zero, caso contrário, H(X) é positivo. II. O limite superior da entropia corresponde a incerteza máxima, isto é, H(X) =− K ∑ k=1 1 K log ( 1 K ) = log(K), se e somente se pk = 1 K para todo k, ou seja, todos os níveis discretos são equiprováveis. Intuitivamente essa é a situação mais incerta (HAYKIN, 2007; SHANNON, 1948). Segundo Jaynes (2003) a entropia da informação é uma propriedade de qualquer dis- tribuição de probabilidade, e a entropia experimental da termodinâmica é uma propriedade de um estado termodinâmico, como por exemplo, por quantidades observadas como pressão, volume, temperatura, de algum sistema físico. A entropia experimental não faz referência a nenhuma distribuição de probabilidade e a entropia da informação não faz referência à termodinâmica. 2.5 A derivação de Wallis A seguinte sugestão foi proposta a Jaynes por Graham Wallis em 1962. Tem-se K possibilidades mutuamente exclusivas e deseja-se atribuir probabilidades. Tem-se ainda algumas informações, I, disponíveis. Suponha que o valor de xi seja determinado por algum experimento. A cada repetição do experimento, o resultado é um dos valores xi, i = 1,2, ...,K. 24 Se o experimento for realizado algumas vezes, poderão ocorrer diferentes resultados a cada vez ou alguns resultados podem repetir. A frequência de ocorrência de um resultado pode ser considerada como uma probabilidade, pois resultados mais prováveis ocorrem com mais frequência. Para um espaço amostral, diferentes funções de probabilidade podem ser definidas, o que precisa ser estabelecido é qual delas reflete o que provavelmente será observado em um experimento. No caso discreto, se I representa a informação a ser usada para atribuir probabilidades {p1, p2, ..., pK} para K possibilidades diferentes e suponha que exista n >> K para distribuir de maneira aleatória, refletindo a falta de informações no processo de alocação, para que cada uma das opções tenha probabilidade de ocorrência igual a 1 K . No final do experimento, observa-se que a opção xi recebeu ni, e assim por diante, para que o experimento tenha gerado a atribuição de probabilidade pi = ni n ; i = 1,2, ...,K. Como tem-se um experimento com K possíveis resultados, a probabilidade de que essa alocação específica seja observada é dada pela distribuição multinomial, como observado na Tabela 2.1, W = n! n1!n2!...nK! ( 1 K )n1 ( 1 K )n2 ... ( 1 K )nK = n! n1!n2!...nK! K − K ∑ i=1 ni = n! n1!n2!...nK! K−n, em que n = K ∑ i=1 ni. Repetindo-se o experimento várias vezes a distribuição de probabilidade mais provável resultante do experimento é encontrada. Utilizando a aproximação de Stirling aos fatoriais para n grande, tem-se: ln(n!)≈ nln(n)−n. A distribuição mais provável é aquela que maximiza W . Ao invés de maximizar W pode- se maximizar qualquer função monótona crescente de W , nesse caso foi escolhida a função 25 Tabela 2.1 – Exemplo de possíveis resultados de um experimento com K resultados possíveis e n repetições: distribuição multinomial x1 x2 x3 · · · xK Repetição 1 0 1 0 · · · 0 Repetição 2 1 0 0 · · · 0 ... ... ... ... ... ... Repetição n 1 0 0 · · · 0 Frequência como probabilidade F1 = n1 n︸ ︷︷ ︸ =p1 F2 = n2 n︸ ︷︷ ︸ =p2 F3 = n3 n︸ ︷︷ ︸ =p3 · · · FK = nK n︸ ︷︷ ︸ =pK 1 n ln(W ). Assim, utilizando a aproximação de Stirling a função 1 n ln(W ), pode-se escrever: 1 n ln(W ) = 1 n [ nln(n)−n− K ∑ i=1 (niln(ni)−ni)−nln(K) ] = ln(n)−1− K ∑ i=1 (ni n ln(ni) ) +1− ln(K) = ln(n)− K ∑ i=1 (ni n ln (ni n n )) − ln(K) Como pi = ni n , 1 n ln(W ) = ln(n)− K ∑ i=1 (piln(pin))− ln(K) = ln(n)− K ∑ i=1 (piln(pi)+ piln(n))− ln(K) = ln(n)− K ∑ i=1 piln(pi)− K ∑ i=1 pi︸ ︷︷ ︸ =1 ln(n)− ln(K) =− K ∑ i=1 piln(pi) −ln(K)︸ ︷︷ ︸ constante = H(p1, p2, ..., pK)+ constante. Maximizar W em relação a pi é equivalente a maximizar 1 n ln(W ), e a expressão anterior indica que isso é alcançado quando a entropia H(p1, p2, ..., pK) é maximizada em relação às probabilidades, sujeito a quaisquer restrições impostas pelas informações disponíveis I. Portanto, do ponto de vista conceitual da derivação de Wallis conduz-se a prescrição de que H(p1, p2, ..., pK) deve ser maximizado sem a necessidade de ter a interpretação de “quantidade de incerteza”. Ou seja, uma maneira de alocar probabilidades é por meio do princípio da máxima entropia (JAYNES, 2003). 26 2.6 Entropia diferencial de variáveis aleatórias contínuas Nesta secão será estendido os conceitos de teoria da informação para variáveis aleatórias contínuas. Seja uma variável aleatória contínua X com função de densidade de probabilidade fX(x). Introduz-se a definição de entropia diferencial para variável aleatória contínua, em analogia a entropia de variáveis discretas, dada por (CAMPENHOUT e COVER, 1981): h(X) =− ∫ +∞ −∞ fX(x)log [ fX(x)]dx (2.5) =−E [log fX(x)] . A variável aleatória contínua X pode ser vista como o limite de uma variável aleatória discreta que assume o valor xk = kδx, em que k = 0,±1,±2, ..., e δx se aproxima de zero. Assim, a variável aleatória X pertence ao intervalo [xk,xk + δx] com probabilidade fX(xk)δx. Como δx se aproxima de zero, a entropia da variável aleatória X pode ser escrita no limite como H(X) =− lim δx→0 ∞ ∑ k=−∞ fX(xk)δxlog( fX(xk)δx) Como log( fX(xk)δx) = log( fX(xk))+ log(δx), tem-se: H(X) =− lim δx→0 [ ∞ ∑ k=−∞ fX(xk)(log( fX(xk))δx+ log(δx) ∞ ∑ k=−∞ fX(xk)δx ] =− ∫ ∞ −∞ fX(x)log fX(x)dx− lim δx→0 logδx ∫ ∞ −∞ fX(x)dx︸ ︷︷ ︸ =1 = h(X)− lim δx→0 logδx em que na última linha fez-se o uso da equação (2.5) e do fato de que a área total sob a curva da função de densidade de probabilidade fX(x) é unitária. Como − lim δx→0 logδx→+∞, significa que a variável aleatória contínua é infinitamente grande, pois pode assumir qualquer valor no intervalo (−∞,∞) e a incerteza associada com a variável tende ao infinito. Evita- se o problema associado com o termo −logδx adotando h(X) como a entropia diferencial. 27 Como a informação é a diferença entre dois termos de entropia que tem uma referência em comum, justifica-se o termo h(X) como a entropia diferencial da variável aleatória contínua X (HAYKIN, 2007). No entanto, para variáveis aleatórias discretas, foi apontado anteriormente que a entropia é pelo menos nula. Isso nem sempre é levado ao caso contínuo (SORENSEN e GIANOLA, 2002). Por exemplo, suponha que X seja uma variável aleatória distribuída uniformemente no intervalo (a,b), assim sua função densidade é 1 b−a e a entropia diferencial é expressa por: h(X) =− ∫ b a 1 b−a [ log ( 1 b−a )] dx = log(b−a), observe que, se a diferença entre os limites b− a for < 1, a entropia diferencial será negativa. Assim, apesar de h(X) ser uma quantidade matemática útil de se conhecer, ela não é uma medida da incerteza de uma variável aleatória contínua. 2.7 Distribuições a priori de máxima entropia A distribuição a priori deve levar em consideração as informações disponíveis sobre o parâmetro e aspectos da distribuição, como por exemplo, os momentos da distribuição fornecerão algumas possibilidades em relação a outras. O propósito do princípio de máxima entropia foi determinar uma medida numérica razoável de quão uniforme é uma distribuição de probabilidade, que possa ser maximizada sujeita as restrições que representam as informações disponíveis. O conhecimento dos momentos da distribuição fornecerão razões para preferir algumas distribuições em relação a outras, no entanto a distribuição mais uniforme possível, com base nas informações disponíveis. A entropia é uma medida de quão uniforme ou da “quantidade de incerteza"de uma distribuição de probabilidade e poderá ser maximizada sujeita as restrições que representam as informações disponíveis (JAYNES, 2003). O princípio da máxima entropia envolve um problema de otimização restrito. Considere a maximização da entropia diferencial (HAYKIN, 2007): h(X) =− ∫ +∞ −∞ fX(x)log [ fX(x)]dx 28 sobre todas as funções de densidade de probabilidade de uma variável aleatória X , sujeita às seguintes restrições: 1. fX(x)≥ 0, com a igualdade fora do suporte de x; 2. ∫ +∞ −∞ fX(x)dx = 1; 3. ∫ +∞ −∞ fX(x)gi(x)dx = αi para i = 1,2, ...,m, em que gi(x) é uma função de x. As restrições 1 e 2 descrevem duas propriedades básicas de função densidade de probabilidade. A restrição 3 define os momentos de X e resume o conhecimento prévio disponível sobre a variável aleatória X . Para resolver este problema de otimização restrito, usa-se o método dos multiplicadores de Lagrange com a seguinte função objetivo: J( f ) = ∫ +∞ −∞ [ − fX(x)log [ fX(x)]+λ0 fX(x)+ m ∑ i=1 λigi(x) fX(x) ] dx em que λ0,λ1, ...,λm são os multiplicadores de Lagrange. Derivando o integrando em relação a fX(x) e igualando a zero, obtem-se: − [ log [ fX(x)]+ fX(x) fX(x) ] +λ0 + m ∑ i=1 λigi(x) = 0 −log [ fX(x)]−1+λ0 + m ∑ i=1 λigi(x) = 0 assim, log [ fX(x)] =−1+λ0 + m ∑ i=1 λigi(x) então, fX(x) = exp [ −1+λ0 + m ∑ i=1 λigi(x) ] . Os multiplicadores de Lagrange na equação anterior serão determinados com base nas restrições 2 e 3. Assim, a equação define a distribuição de máxima entropia para o problema. 29 I - A função de densidade de uma variável aleatória X , que é definida no intervalo [a,b] e que maximiza a entropia, é a densidade da distribuição uniforme, expressa por: fX(x) = 1 b−a , a≤ x≤ b. Demonstração: a restrição é que X é definida no intervalo [a,b]: ∫ b a fX(x)dx = 1 A função fX(x) deve satisfazer: fX(x) = exp −1+λ0 + m ∑ i=1 λigi(x)︸ ︷︷ ︸ =0 = exp [−1+λ0] Substituindo-se na restrição (2), tem-se: ∫ b a exp [−1+λ0]dx = 1 Como exp [−1+λ0] não depende de x tem-se: exp [−1+λ0] ∫ b a dx = 1 exp [−1+λ0] = 1 b−a λ0 = 1+ ln ( 1 b−a ) . Assim, fX(x) = exp [−1+λ0] = exp [ −1+1+ ln ( 1 b−a )] = 1 b−a . 30 II - A função de densidade de uma variável aleatória X com valor esperado E[X ] = µ definida no intervalo [0,∞) e que maximiza a entropia, é a densidade da distribuição exponencial, expressa por: f (x) = 1 µ exp { − x µ } . Demonstração: a restrição é que E[X ] = µ e pertença ao intervalo [0,∞):∫ +∞ 0 x f (x)dx = µ =⇒ g1(x) = x e α1 = µ. Assim, a função fX(x) deve satisfazer: f (x) = exp{−1+λ0 +λ1x} . Substituindo-se nas restrições 2 e 3 tem-se:  ∫ +∞ 0 exp{−1+λ0 +λ1x}dx = 1∫ +∞ 0 exp{−1+λ0 +λ1x}xdx = µ Colocando-se a constante exp{−1+λ0} em evidência e multiplicando-se e dividindo-se pela constante µ obtém-se:  exp{−1+λ0}µ ∫ +∞ 0 1 µ exp{λ1x}dx = 1 exp{−1+λ0}µ ∫ +∞ 0 1 µ exp{λ1x}xdx = µ Note que para as integrais convergirem deve-se ter λ1 =− 1 µ :  exp{−1+λ0}µ ∫ +∞ 0 1 µ exp { − x µ } dx︸ ︷︷ ︸ =1 = 1 exp{−1+λ0}µ ∫ +∞ 0 1 µ exp { − x µ } xdx︸ ︷︷ ︸ =µ = µ Logo, λ0 pode ser obtido pela primeira equação do sistema acima: 31 exp{−1+λ0}= 1 µ =⇒ λ0 = 1+ ln ( 1 µ ) . Substituindo-se λ0 = 1+ ln ( 1 µ ) e λ1 =− 1 µ em f (x) tem-se: f (x) = exp { −1+1+ ln ( 1 µ ) − 1 µ x } = 1 µ exp { − x µ } . III - A função de densidade de uma variável aleatória X com valor esperado E[X ] = µ e variância Var[X ] = σ2, que é definida no intervalo (−∞,∞) e que maximiza a entropia, é a densidade da distribuição normal, expressa por: f (x) = 1√ 2πσ2 exp { − 1 2σ2 (x−µ)2 } . Demonstração: a restrição é que X tenha variância finita e pertença ao intervalo (−∞,∞):∫ +∞ −∞ (x−µ)2 f (x)dx = σ 2 =⇒ g1(x) = (x−µ)2 e α1 = σ2. Assim, a função fX(x) deve satisfazer: f (x) = exp { −1+λ0 +λ1(x−µ)2} . Substituindo-se nas restrições 2 e 3 tem-se:  ∫ +∞ −∞ exp { −1+λ0 +λ1(x−µ)2}dx = 1∫ +∞ −∞ exp { −1+λ0 +λ1(x−µ)2}(x−µ)2 dx = σ 2 Colocando-se a constante exp{−1+λ0} em evidência e multiplicando-se e dividindo-se por √ 2πσ2 obtém-se:  exp{−1+λ0} √ 2πσ2 ∫ +∞ −∞ 1√ 2πσ2 exp { λ1(x−µ)2}dx = 1 exp{−1+λ0} √ 2πσ2 ∫ +∞ −∞ 1√ 2πσ2 exp { λ1(x−µ)2}(x−µ)2 dx = σ 2 32 Note que para as integrais convergirem deve-se ter λ1 =− 1 2σ2 :  exp{−1+λ0} √ 2πσ2 ∫ +∞ −∞ 1√ 2πσ2 exp { − 1 2σ2 (x−µ)2 } dx︸ ︷︷ ︸ =1 = 1 exp{−1+λ0} √ 2πσ2 ∫ +∞ −∞ 1√ 2πσ2 exp { − 1 2σ2 (x−µ)2 } (x−µ)2dx︸ ︷︷ ︸ =σ2 = σ2 Logo, λ0 pode ser obtido pela primeira equação do sistema acima: exp{−1+λ0}= 1√ 2πσ2 =⇒ λ0 = 1+ ln ( 1√ 2πσ2 ) . Substituindo-se λ0 = 1+ ln ( 1√ 2πσ2 ) e λ1 =− 1 2σ2 em f (x) tem-se: f (x) = exp { −1+1+ ln ( 1√ 2πσ2 ) − 1 2σ2 (x−µ)2 } = 1√ 2πσ2 exp { − 1 2σ2 (x−µ)2 } . IV - A função de densidade de uma variável aleatória X com valor esperado E[X ] = µ e variância Var[X ] = σ2, que é definida no intervalo [0,∞) e que maximiza a entropia, é a densidade da distribuição normal truncada (KOCH, 2007), expressa por: f (x) = 2√ 2πσ2 exp { − 1 2σ2 (x−µ)2 } , 0≤ x < ∞. Alguns distribuições de máxima entropia com suas respectivas restrições são apresen- tadas na Tabela 2.2, outras distribuições e restrições podem ser vistas em Singh et al. (1986). 33 Tabela 2.2 – Algumas distribuições de probabilidade e restrições necessárias para sua derivação. Distribuição Função densidade de probabilidade Restrições necessárias Uniforme f (x) = 1 b−a ∫ b a f (x)dx = 1 Exponencial f (x) = 1 δ exp ( − x δ ) ∫ ∞ 0 f (x)dx = 1∫ ∞ 0 x f (x)dx = E[x] = µ ∫ ∞ −∞ f (x)dx = 1 Normal f (x) = 1√ 2πσ2 exp ( −(x−µ)2 2σ2 ) ∫ ∞ −∞ x f (x)dx = E[x] = µ∫ ∞ −∞ x2 f (x)dx = σ 2 +µ 2 ∫ ∞ 0 f (x)dx = 1 Gama f (x) = 1 aΓ(b) (x a )b−1 exp ( −x a ) ∫ ∞ 0 x f (x)dx = E[x] = µ∫ ∞ 0 ln(x) f (x)dx = E[ln(x)] ∫ 1 0 f (x)dx = 1 Beta f (x) = Γ(a+b) Γ(a)Γ(b) xa−1(1− x)b−1 ∫ 1 0 ln(x) f (x)dx = E[ln(x)]∫ 1 0 ln(1− x) f (x)dx = E[ln(1− x)] Fonte: (SINGH et al., 1986). 2.8 Método de Monte Carlo Pelo Teorema de Bayes (2.4), fazendo-se o produto da verossimilhança com as dis- tribuições a priori obtém-se a distribuição conjunta a posteriori. Para fazer inferência para qualquer parâmetro do modelo, é necessário obter a distribuição marginal a posteriori. Portanto, a distribuição conjunta a posteriori deve ser integrada em relação a todos os outros parâmetros do modelo. A integração da distribuição conjunta a posteriori pode não ter solução analítica e até impossíveis de serem calculadas, quando não se trabalha com distribuições conjugadas, sendo uma alternativa o uso dos Métodos de Monte Carlo via Cadeias de Markov (Gelman et al., 2014). Uma forma apropriada para a resolução dessas integrais é a utilização dos métodos 34 de Monte Carlo. A ideia básica do método de Monte Carlo para obter valor aproximado de integrais será apresentado para entendimento de conceitos posteriores. Suponha que se deseja calcular a integral ∫ b a f (x)dx. Segundo Khuri et al. (2003) o método de Monte Carlo considera a integral como um valor esperado. Uma estimativa aproximada dessa integral pode ser obtida por uma amostra aleatória desse processo. Como exemplo, seja X uma variável aleatória contínua com distribuição uniforme U(a,b) no intervalo [a,b]. O valor esperado de f (X) denotado por E[ f (X)] é E[ f (X)] = ∫ b a 1 b−a f (x)dx = 1 b−a ∫ b a f (x)dx. Dado uma amostra aleatória x1,x2, ...,xn da distribuição U(a,b), uma estimativa de E[ f (X)] é dada por 1 n n ∑ i=1 f (xi). Logo, 1 n n ∑ i=1 f (xi)' 1 b−a ∫ b a f (x)dx Então, um valor aproximado da integral, pode ser obtido por ∫ b a f (x)dx' b−a n n ∑ i=1 f (xi). 2.9 Métodos de Monte Carlo via Cadeias de Markov Serão abordados métodos de Monte Carlo baseados na simulação de Cadeias de Markov cuja distribuição de equilíbrio é a distribuição marginal a posteriori de interesse. Um processo estocástico Xt , pode ser construído por uma cadeia de Markov se a distribuição de Xt for independente de todos os estádios prévios em que se encontra a cadeia, com exceção do estado imediatamente anterior. Será apresentado dois métodos de Monte Carlo via Cadeias de Markov: o amostrador de Gibbs e o Metropolis-Hasting. No entanto, para implementação desses algoritmos necessita-se obter as distribuições condicionais dados todos os outros componentes, P(θi|θ1,θ2, ...,θi−1,θi+1, ...,θp,y), geral- mente denominadas de distribuições condicionais completas a posteriori. O amostrador de Gibbs pode ser utilizado no caso em que a distribuição condicional completa a posteriori 35 tem forma conhecida. Caso a distribuição condicional completa a posteriori não tenha forma conhecida é utilizado o algoritmo Metropolis-Hastings. 2.9.1 Amostrador de Gibbs O amostrador de Gibbs é uma técnica que pode ser utilizada para gerar amostras aleatórias de uma distribuição condicional (marginal) sem que se conheça sua densidade. O algoritmo é um processo markoviano dinâmico que requer a amostragem dessas distribuições condicionais, cuja distribuição de equilíbrio é a distribuição marginal do parâmetro. A seguir será apresentado os passos para implementação do algoritmo. Seja o vetor de parâmetros θ dividido em p subvetores θ = (θ1,θ2, ...,θp) ′ e que as distribuições condicionais de cada parâmetro θi dado todos os outros, P(θi|θ1,θ2, ...,θi−1,θi+1, ...,θp,y), seja conhecida (possíveis de serem amostradas). Estas distribuições são chamadas de distribuições condicionais completas e denotadas por: P(θ1|θ2,θ3, ...,θp,y); P(θ2|θ1,θ3, ...,θp,y); ... P(θp|θ1,θ2, ...,θp−1,y). Atribui-se θ (0) = (θ (0) 1 ,θ (0) 2 , ...,θ (0) p )′ um valor inicial para o vetor θ . Para a primeira iteração, procede-se da seguinte maneira: Gerar, θ (1) 1 de P(θ1|θ (0) 2 ,θ (0) 3 , ...,θ (0) p ,y); θ (1) 2 de P(θ2|θ (1) 1 ,θ (0) 3 , ...,θ (0) p ,y); ... θ (1) p de P(θp|θ (1) 1 ,θ (1) 2 , ...,θ (1) p−1,y); Completa-se assim uma iteração do algoritmo. O esquema anterior é repetido M vezes produzindo θ (1), θ (2),..., θ (M) (GELMAN et al., 2014). 36 2.9.2 Algoritmo Metropolis-Hastings Quando a distribuição condicional completa P(θi|θk,y), com i 6= k não é identificável, usa-se o algoritmo Metropolis-Hastings. O algoritmo constrói uma cadeia de Markov utilizando uma distribuição auxiliar q(θi,β ) possível de ser amostrada e semelhante a P(θi|θk,y). A densidade q(θi,β ) é o núcleo de transição da cadeia e a distribuição converge para P(θi|y). O algoritmo é como segue: i) Atribua os valores iniciais θ (0) i = (θ (0) i1 , ...,θ (0) ip ). Na iteração “j” a cadeia encontra-se no passo θ ( j) i , o passo seguinte é obter (θ ( j+1) i ); ii) gere β de q(θ ( j) i , .) e u de uma uniforme (0,1); iii) seja p = min { 1, P(β |y)q(θ ( j) i ,β ) P(θ ( j) i |y)q(β ,θ ( j) i ) } ; Se u≤ p, faça θ ( j+1) i = β , senão θ ( j+1) i = θ ( j) i ; iv) repita os passos ii) e iii) até que a distribuição de equilíbrio seja obtida (GELMAN et al., 2014). 2.10 Diagnóstico de convergência Na inferência bayesiana, o método de Monte Carlo via Cadeia de Markov é usado para o cálculo de integrais. Como o método de Monte Carlo é uma aproximação, não se pode afirmar que o valor encontrado por ele é o valor exato da integral. Entretanto, quanto mais pontos forem gerados, maior será a confiabilidade na aproximação obtida. Sendo assim, será necessário avaliar a convergência do método. Na prática, é comum que as iterações iniciais sejam descartadas, como se formassem uma amostra de aquecimento, pois conforme o número de iterações aumenta, a cadeia gra- dualmente esquece os valores iniciais, e eventualmente, converge para uma distribuição de equilíbrio. Dentre os critérios de convergência, se destaca o Raftery & Lewis (1992) e o Geweke (1992). 2.10.1 Critério de Raftery & Lewis Raftery & Lewis (1992) propuseram um critério que consiste em estimar quantas iterações são necessárias para que o método de Monte Carlo via Cadeia de Markov apresente convergência a distribuição de equilíbrio. O método estima o número de iterações que devem ser computadas, quantas iterações devem ser descartadas (“burn-in”), para evitar a influência 37 dos valores iniciais e a distância de uma iteração a outra para se obter uma amostra aproxi- madamente independente (“thin”). A regra de decisão do critério de Raftery & Lewis é feita com base no fator de dependência, e segundo os autores, se o fator de dependência for maior que 5, conclui-se que a cadeia não atingiu convergência. 2.10.2 Critério de Geweke Foi proposto por Geweke (1992) um diagnóstico para avaliar a ausência de convergência do método de Monte Carlo via Cadeia de Markov. Após um número n suficientemente grande de iterações, descarta-se algumas iterações iniciais, e determina-se os valores nA=0,1n e nB=0,5n. Calcula-se as médias ḡA e ḡB, sendo ḡA a média das primeiras nA e ḡB a média das nB últimas iterações e as variâncias assintóticas Ŝ2 gA(0) e Ŝ2 gB(0), respectivamente. Pode-se mostrar que se nA n e nB n são fixos, quando n→ ∞, tem-se a diferença padronizada entre as médias, ḡA− ḡB√ Ŝ2 gA(0) nA + Ŝ2 gB(0) nB ∼ N(0,1), se a sequência for estacionária. Se a diferença padronizada entre as médias for grande, existe indicação de ausência de convergência. 2.11 Avaliadores de qualidade do ajuste e critérios de seleção de modelo Com base nas amostras obtidas das distribuições marginais dos parâmetros de cada modelo, é necessário utilizar critérios para avaliar a qualidade de ajuste dos modelos, bem como para selecionar e indicar o modelo que melhor descreva o fenômeno em estudo. 2.11.1 Intervalo de credibilidade - Highest Posterior Density (HPD) Obtida a posteriori do parâmetro θi, na inferência bayesiana é possível obter o intervalo de credibilidade. Por definição uma região de credibilidade R com grau de credibilidade γ=100(1-α)% é tal que P(θi ∈R)≥1-α (GELMAN, et al., 2014). Após obtido este intervalo de credibilidade, interessa selecionar aquele com o menor comprimento possível e que contenha todos os valores de θ mais plausíveis, sendo então o intervalo de máxima densidade a posteriori, do inglês Highest Posterior Density - HPD. O intervalo de menor amplitude representa a função 38 densidade de probabilidade a posteriori mais concentrada, indicando maior confiança sob a estimativa do parâmetro. 2.11.2 Medida de Kullback-Leibler Para selecionar o melhor modelo foi usada a medida de Kullback-Leibler. É interessante avaliar quanta informação é obtida, ou equivalentemente, quanto a posteriori difere da priori e uma medida da discrepância (“distância") entre as distribuições priori e posteriori é dada pela medida de Kullback-Leibler entre as duas densidades correspondentes. Sendo P(θ) e P(θ |y) as densidades priori e posteriori, respectivamente, a medida de Kullback-Leibler é expressa por (SORENSEN E GIANOLA, 2002): D(P(θ),P(θ |y)) = ∫ · · · ∫ ( log P(θ |y) P(θ) ) P(θ |y)dθ = E ( log P(θ |y) P(θ) ) =−E ( log P(θ) P(θ |y) ) , com a esperança assumida sobre a distribuição posteriori. Esta medida é maior ou igual a 0, sendo nula somente quando os dados não contribuem com nenhuma informação sobre o parâmetro, ou seja, se P(θ) = P(θ |y). E quanto maior o valor da medida maior o ganho de informação. 2.12 Aplicações da metodologia bayesiana em modelos não lineares A metodologia bayesiana para modelos não lineares tem sido aplicada em diversas áreas com resultados satisfatórios, mesmo com pequenas amostras. No entanto, trabalhos com essa metodologia na área de decomposição de resíduos no solo são escassos. No ajuste dos modelos Gompertz, Logístico e Richards ao peso médio de codornas, Firat et al. (2016) compararam a abordagem clássica e bayesiana. Os modelos Gompertz e Logístico tem três parâmetros e são casos particulares do modelo Richards que tem quatro parâmetros. No ajuste do modelo Richards usando a abordagem clássica, para dois parâmetros o intervalo de confiança incluiu o zero, e considerados estatisticamente não significativos, e indicando que o modelo não foi adequado para descrever os dados. Por outro lado, na abordagem bayesiana os intervalos de credibilidade dos parâmetros no ajuste do modelo Richards não incluíram o zero. 39 De acordo com os autores, isso foi devido ao poder da abordagem bayesiana na estimação dos parâmetros mesmo em pequena amostra (7 observações) e modelo mais complexo (4 parâmetros). O método bayesiano previu intervalos de credibilidade menores e resultados mais acurados que a abordagem frequentista, no entanto as prioris foram determinadas de forma subjetiva pelos autores. O modelo Mehez e Orskov foi ajustado por Rossi et al. (2010) a dados de degradabili- dade ruminal usando a metodologia clássica e bayesiana. Foi observado pequena diferença nas estimativas dos parâmetros comparando-se as duas metodologias, mas a análise bayesiana se sobresaiu por não exigir procedimentos assintóticos. Savian et al. (2009) compararam o ajuste dos modelos Orskov & McDonald e McDonald a dados simulados e reais de degradabilidade ruminal usando a metodologia bayesiana. Os autores observaram que a metodologia foi eficiente e se mostrou coerente com os valores da literatura. Para os dados reais o modelo Orskov & McDonal foi mais adequado. Em ambos os trabalhos as prioris foram determinadas de forma subjetiva. O ajuste do modelo Weibull foi avaliado por Guedes et al. (2014) a porcentagem de germinação de sementes por meio da metodologia clássica e bayesiana. Os autores observaram ajuste adequado e pequena diferença nas estimativas dos parâmetros nas duas metodologias, mas vantagem a metodologia bayesiana por ter intervalo de credibilidade para os parâmetros. Foram utilizadas cinco tipos de prioris subjetivas para os parâmetros do modelo. Foi encontrado na literatura apenas um estudo relacionado com os modelos Cabrera, Marion e Stanford & Smith via inferência bayesiana. Pereira et al. (2009) utilizaram esta metodologia para predizer as quantidades de nitrogênio mineralizado no solo e indicar o modelo mais adequado. Os autores utilizaram prioris subjetivas para os parâmetros dos modelos. O modelo Cabrera foi o que melhor descreveu as quantidades de nitrogênio mineralizadas, com base no Fator de Bayes. Silva et al. (2020) utilizaram a metodologia bayesiana para avaliar o ajuste do modelo Stanford & Smith para descrever a extração de zinco de sete extratores em solo com lodo de esgoto. Foram avaliadas quinze extrações de zinco de cada extrator. Distribuições a posteriori do estudo de Pereira et al. (2009) que avaliou o modelo não linear Stanford & Smith foram utilizadas como distribuições a priori no estudo. O método bayesiano permitiu utilizar distribuições a posteriori de um estudo já publicado como distribuição a priori do novo estudo. 40 A metodologia bayesiana foi eficiente no estudo do modelo de cinética de primeira ordem para descrever a absorção de zinco no solo com lodo de esgoto dos sete extratores. 3 MATERIAL E MÉTODOS Nesta seção foram apresentados os dados de mineralização de dejetos de suínos na su- perfície do solo que foram analisados e a forma como foram obtidos, bem como a metodologia de análise dos mesmos, por meio dos modelos não lineares utilizando inferência bayesiana. 3.1 Material Os dados utilizados para o ajuste dos modelos foram extraídos de Giacomini et al. (2008) e correspondem aos resultados em médias de um experimento que avaliou a mineral- ização do carbono de dejetos de suínos na superfície do solo. Na Figura 3.1 está apresentado o tratamento avaliado na incubação. Figura 3.1 – Tratamento dejetos líquidos na superfície do solo. Fonte: (GIACOMINI, 2005). O experimento foi realizado em laboratório e foi utilizado o delineamento inteiramente casualizado com quatro repetições. Um argissolo vermelho distrófico arênico, da camada de 0-10 cm de uma área que vinha sendo manejada em sistema plantio direto foi avaliado. O solo apresentou 18 g kg−1 de matéria orgânica, 150 g kg−1 de argila e pH em água de 5,2. Após a 42 amostragem, o solo foi peneirado em malha de 4 mm e armazenado úmido em sacos plásticos, por treze dias antes da incubação, em temperatura ambiente. Os dejetos líquidos de suínos foram obtidos de uma esterqueira anaeróbia de uma unidade com animais de maternidade e recria. Os dejetos apresentaram 46 g kg−1 de matéria seca, 9,7 g kg−1 de carbono e pH de 7,9. Amostras do tratamento foi incubada em recipientes de acrílico. A mineralização do carbono foi avaliada por meio da emissão de CO2, durante a incubação, medindo-se o carbono mineralizado aos 3, 5, 9, 14, 20, 25, 30, 35, 45, 55, 65 e 80 dias do início da incubação. 3.2 Metodologia 3.2.1 Modelos que foram ajustados Para descrição da mineralização do carbono foram utilizados os modelos não lineares, com parametrização proposta por Zeviani et al. (2012): (i) modelo Stanford & Smith: yi =C0 [ 1− exp ( − ln(2)ti v )] + εi (3.1) (ii) modelo Cabrera: yi =C1 [ 1− exp ( − ln(2)ti v )] + k0ti + εi (3.2) em que, yi é o carbono mineralizado até o tempo ti; ti é o tempo de incubação (dias), com i=1,2,...,n; C0 é o carbono potencialmente mineralizável; C1 é o carbono facilmente mineralizável; k0 é a taxa ou constante de minerazalização do carbono resistente; v no modelo Stanford & Smith é o tempo de meia vida do carbono potencialmente mineralizável e no modelo Cabrera tempo de meia vida do carbono facilmente mineralizável; εi é o erro aleatório com distribuição normal com média zero e variância σ2, ou seja, εi ∼ N(0,σ2). 43 Esses modelos foram escolhidos, pois descrevem um comportamento exponencial e a mineralização do carbono segue esse padrão (ALVES et al., 1999; MANTOVANI et al., 2006; REIS; RODELLA, 2002; PAULA et al., 2019; SILVA et al., 2019a; SILVA et al., 2019b). 3.2.2 Distribuição a priori A princípio foram estabelecidas prioris para os parâmetros do modelo Stanford & Smith. Para o parâmetro C0 Paula et al. (2020) observaram que a estimativa do parâmetro foi de 423 CO2 mineralizado mg kg−1 e intervalo com 95% de confinça de 233 a 612. Para o parâmetro v a estimativa foi de 26 dias com intervalo de confiança de 9 a 33. Como os parâmetros C0 e v representam o carbono potencialmente mineralizável e o tempo de meia vida, respectivamente, podem assumir apenas valores positivos e como tem-se um valor médio e o intervalo dos parâmetros, e espera-se que a medida que se afasta desse valor médio a probabilidade diminua, foi considerado que esses parâmetros tem variância finita e pela seção 2.8 item IV a distribuição de máxima entropia foi a normal truncada: P(C0|µc,σ 2 c ) ∝ exp { − 1 2σ2 c (C0−µc) 2 } , 0≤C0 < ∞ (3.3) P(v|µv,σ 2 v ) ∝ exp { − 1 2σ2 v (v−µv) 2 } , 0≤ v < ∞ (3.4) Foram considerados µc = 423 e µv = 26 pois foram os valores estimados por Paula et al. (2020) para os parâmetros C0 e v, respectivamente. Os hiperparâmetros σc = 95 e σv = 6 foram estabelecidos de modo que as distribuições ficaram de acordo com os intervalos obtidos por Paula et al. (2020) e pode ser observado pela Figura 3.2. O desvio padrão residual (DPR) foi estimado por Paula et al. (2020) em DPR = √ QME = 40,7, como σ2 pode ser estimado por σ̂2 = QME, então σ̂2 = 40,72. Como este parâmetro pode assumir apenas valores positivos e tem-se um valor médio pela seção 2.8 item II a distribuição de máxima entropia para a precisão τ = 1 σ2 , foi a exponencial com hiperparâmetro δ = 1 40,72 (Figura 3.2), ou seja, P(τ|δ ) ∝ exp { − τ δ } . (3.5) 44 Figura 3.2 – Densidade amostral das distribuições a priori do modelo Stanford & Smith. Fonte: Do autor (2020). De modo análogo, foram estabelecidas prioris para os parâmetros do modelo Cabrera. Para o parâmetro C1 Paula et al. (2020) observaram que a estimativa do parâmetro foi de 142 CO2 mineralizado mg kg−1 e intervalo com 95% de confiança de 117 a 173. Para o parâmetro v a estimativa foi de 2,3 dias com intervalo de confiança de 1 a 4. Como os parâmetros C1 e v representam o carbono facilmente mineralizável e o tempo de meia vida do carbono facilmente mineralizável, respectivamente, podem assumir apenas valores positivos e como tem-se um valor médio e o intervalo dos parâmetros ao redor desse valor foi considerado que tem variância finita e pela seção 2.8 item IV a distribuição de máxima entropia foi a normal truncada: 45 P(C1|µc,σ 2 c ) ∝ exp { − 1 2σ2 c (C1−µc) 2 } , 0≤C1 < ∞ (3.6) P(v|µv,σ 2 v ) ∝ exp { − 1 2σ2 v (v−µv) 2 } , 0≤ v < ∞ (3.7) Os hiperparâmetros foram estabelecidos de modo que as distribuições ficaram de acordo com os intervalos obtidos por Paula et al. (2020), ou seja, µc = 142 e σc = 9 e µv = 2,3 e σv = √ 0,5 como pode ser observado pela Figura 3.3. Para o k0 Paula et al. (2020) observaram que o intervalo com 95% de confiança do parâmetro foi de 2,4 a 3,3 e a estimativa do parâmetro foi de 2,9 CO2 mineralizado mg kg−1. O parâmetro k0 representa a constante de minerazalização do carbono resistente e pode assumir qualquer valor real (SILVA, et al., 2019a; SILVA, et al., 2019b) e como tem-se um intervalo dos parâmetros foi considerado que tem variância finita e pela seção 2.8 item III a distribuição de máxima entropia foi a normal: P(k0|µk,σ 2 k ) ∝ exp { − 1 2σ2 k (k0−µk) 2 } (3.8) Os hiperparâmetros µk e σ2 k foram estabelecidos de modo que as distribuições ficaram de acordo com os intervalos obtidos por Paula et al. (2020), ou seja, µk = 2,9 e σk = √ 0,05 ver Figura 3.3. O desvio padrão residual (DPR) foi estimado por Paula et al. (2020) em DPR = √ QME = 12,6, como σ2 pode ser estimado por σ̂2 = QME, então σ̂2 = 12,62. Como este parâmetro pode assumir apenas valores positivos e tem-se um valor médio pela seção 2.8 item II a distribuição de máxima entropia para a precisão τ = 1 σ2 , foi a exponencial com hiperparâmetro δ = 1 12,62 (Figura 3.3), ou seja, P(τ|δ ) ∝ exp { − τ δ } . (3.9) 46 Figura 3.3 – Densidade amostral das distribuições a priori do modelo Cabrera. Fonte: Do autor (2020). 3.2.3 Verossimilhança Supondo que εi ∼ N(0,σ2), então, a verossimilhança para o modelo Stanford & Smith é escrita da seguinte forma: L(y|C0,v,τ) = n ∏ i=1 1√ 2π/τ exp { −τ 2 { yi−C0 [ 1− exp ( − ln(2)ti v )]}2 } ∝ τ n 2 exp { −τ 2 n ∑ i=1 { yi−C0 [ 1− exp ( − ln(2)ti v )]}2 } , 47 que pode ser escrito matricialmente como: ∝ τ n 2 exp { −τ 2 ( y−C0 [ 1− exp ( − ln(2)t v )])′( y−C0 [ 1− exp ( − ln(2)t v )])} (3.10) em que y = (y1,y2, ...,yn) ′ e t = (t1, t2, ..., tn)′. Supondo que εi ∼ N(0,σ2), então, a verossimilhança para o modelo Cabrera é escrita da seguinte forma: L(y|C1,v,k0,τ) = n ∏ i=1 1√ 2π/τ exp { −τ 2 { yi− { C1 [ 1− exp ( − ln(2)ti v )] + k0ti }}2 } ∝ τ n 2 exp { −τ 2 n ∑ i=1 { yi− { C1 [ 1− exp ( − ln(2)ti v )] + k0ti }}2 } que pode ser escrito matricialmente como: ∝ τ n 2 exp { −τ 2 ( y− { C1 [ 1− exp ( − ln(2)t v )] + k0t })′( y− { C1 [ 1− exp ( − ln(2)t v )] + k0t })} (3.11) 3.2.4 Posteriori conjunta Por intermédio do teorema de Bayes (2.4), a distribuição a posteriori conjunta do modelo Stanford & Smith pode ser escrita da seguinte forma, considerando que C0, v e τ são independentes: P(C0,v,τ|y,H) ∝ L(y|C0,v,τ)P(C0|µc,σ 2 c )P(v|µv,σ 2 v )P(τ|δ ), em que H são os parâmetros das distribuições a priori, denominados de hiperparâmetros. Tem-se as prioris (3.3), (3.4) e (3.5) e a verossimilhança (3.10), e por intermédio do teorema de Bayes (2.4), tem-se a posteriori conjunta para o modelo Stanford & Smith: 48 P(C0,v,τ|y,H) ∝ ∝ τ n 2 exp { −τ 2 ( y−C0 [ 1− exp ( − ln(2)t v )])′( y−C0 [ 1− exp ( − ln(2)t v )])} × × exp { − 1 2σ2 c (C0−µc) 2 } × exp { − 1 2σ2 v (v−µv) 2 } × exp { − τ δ } (3.12) Por intermédio do teorema de Bayes (2.4), a distribuição a posteriori conjunta do modelo Cabrera pode ser escrita da seguinte forma: P(C1,v,k0,τ|y,H) ∝ L(y|C1,v,k0,τ)P(C1|µc,σ 2 c )P(v|µv,σ 2 v )P(k0|µk,σ 2 k )P(τ|δ ). Tem-se as prioris (3.6), (3.7), (3.8) e (3.9) e a verossimilhança (3.11), e por intermédio do teorema de Bayes (2.4), tem-se a posteriori conjunta para o modelo Cabrera: P(C1,v,k0,τ|y,H) ∝ ∝ τ n 2 exp { −τ 2 ( y− { C1 [ 1− exp ( − ln(2)t v )] + k0t })′( y− { C1 [ 1− exp ( − ln(2)t v )] + k0t })} × × exp { − 1 2σ2 c (C1−µc) 2 } × exp { − 1 2σ2 v (v−µv) 2 } × exp { − 1 2σ2 k (k0−µk) 2 } × exp { − τ δ } (3.13) 3.2.5 Avaliação dos modelos As distribuições condicionais completas a posteriori foram obtidas a partir da dis- tribuição a posteriori conjunta. Com as condicionais completas, amostras das distribuições marginais a posteriori (cadeia) foram geradas por meio dos algoritmos Amostrador de Gibbs e Metropolis-Hasting implementados no software R. A convergência das cadeias foram verifi- cadas pelos critérios de Raftery & Lewis (1992) e critério Geweke (1992) disponível no pacote boa (bayesian output analysis) do software R. Foram gerados 100000 valores de cada cadeia, descartados os 5000 iniciais (burn-in) e salto de 20 (thin). 49 Com base nas distribuições marginais de cada parâmetro do modelo foi calculada a média, a moda e o intervalo de máxima densidade a posteriori (HPD). Para determinar qual modelo proporcionou o maior ganho de informação, foi utilizada a medida de Kullback-Leibler. 3.2.6 Estudo computacional da sensibilidade da priori No modelo Stanford & Smith foi mostrado como a alteração nos valores dos hiper- parâmetros das distribuições a priori afetam a curva a posteriori. Foram gerados valores yi tais que, C0 = 550, v = 25, t = 3,5,9,14,20,25,30,35,45,55,65,80 e εi com distribuição normal com média zero e precisão τ = 1 100 . Para os hiperparâmetros das distribuições a priori do modelo Stanford & Smith foram considerados µc = 400, σ2 c = 100, µv = 35, σ2 v = 3 e δ = 1 402 . Foram feitas alterações nos valores dos hiperparâmetros σ2 c , σ2 v e δ . O efeito isolado de cada hiperparâmetro foi mostrado graficamente, alterando os valores de apenas um hiperparâmetro e mantendo os outros constantes. Como os parâmetros do modelo Stanford & Smith tem interpretação biológica, o objetivo foi identificar como a alteração nos valores de cada hiperparâmetro altera a curva a posteriori. No modelo Cabrera foi mostrado como a alteração nos valores dos hiperparâmetros das distribuições a priori afetam a curva a posteriori. Foram gerados valores yi tais que, C1 = 400, v = 25, k0 = 5, t = 3,5,9,14,20,25,30,35,45,55,65,80 e εi com distribuição normal com média zero e precisão τ = 1 25 . Para os hiperparâmetros das distribuições a priori do modelo Cabrera foram conside- rados µc = 120, σ2 c = 3000, µv = 10, σ2 v = 35, µk = 1, σ2 k = √ 0,1 e δ = 1 5002 . Foram feitas alterações nos valores dos hiperparâmetros σ2 c , σ2 v , σ2 k e δ . O efeito isolado de cada hiperparâmetro foi mostrado graficamente, alterando os valores de apenas um hiperparâmetro e mantendo os outros constantes. Como os parâmetros do modelo Cabrera tem interpretação biológica, o objetivo foi identificar como a alteração nos valores de cada hiperparâmetro altera a curva a posteriori. 3.2.7 Recursos computacionais Toda parte computacional envolvida na elaboração deste trabalho foi feita, utilizando- se o software estatístico R (R DEVELOPMENT CORE TEAM, 2020), desde a estimação dos parâmetros dos modelos, até os ajustes gráficos. 4 RESULTADOS E DISCUSSÃO 4.1 Condicionais completas a posteriori do modelo Stanford & Smith A inferência sobre cada parâmetro do modelo Stanford & Smith foi realizada por meio das distribuições marginais de cada parâmetro. Pelo Toerema de Bayes (2.4), fazendo-se o produto da verossimilhança com as distribuições a priori obtém-se a distribuição conjunta a posteriori (3.12). A partir da distribuição conjunta a posteriori do modelo Stanford & Smith , foram obtidas as distribuições condicionais completas a posteriori, por meio das quais foram obtidas amostras das distribuições marginais. A seguir é apresentado o desenvolvimento algébrico pelo qual foram obtidas as distribuições condicionais completas a posteriori de cada parâmetro do modelo Stanford & Smith. A princípio foi obtida a condicional completa P(C0|v,τ,y,µc,σ 2 c ) do parâmetro C0: P(C0|v,τ,y,µc,σ 2 c ) ∝ P(C0)L(y|C0,v,τ) ∝ exp { − 1 2σ2 c (C0−µc) ′ (C0−µc) } × ×exp { −τ 2 ( y−C0 [ 1− exp ( −ln(2) v t )])′( y−C0 [ 1− exp ( −ln(2) v t )])} . Seja a = 1− exp ( −ln(2) v t ) , então: P(C0|v,τ,y,µc,σ 2 c ) ∝ exp { − 1 2σ2 c (C0−µc) ′ (C0−µc) } exp { −τ 2 (y−C0a)′ (y−C0a) } desenvolvendo a transposta, tem-se: ∝ exp { −τ 2 (y′y−y′C0a−C0a′y+C2 0a’a)− 1 2σ2 c (C2 0−C0µc−µcC0 +µ 2 c ) } desconsiderando-se os termos constantes (que não depende de C0) e observando-se que y′a = a′y, pois são escalares, obtem-se: ∝ exp { −τ 2 (−2C0y′a+C2 0a’a)− 1 2σ2 c (C2 0−2C0µc) } ∝ exp { τC0y′a− τ 2 C2 0a’a− 1 2σ2 c C2 0 + C0µc σ2 c } 51 colocando-se em evidência −1 2 C2 0 e C0: ∝ exp { −1 2 C2 0 ( τa′a+ 1 σ2 c ) +C0 ( τy′a+ µc σ2 c )} colocando-se em evidência −1 2 ( τa′a+ 1 σ2 c ) : ∝ exp { −1 2 ( τa′a+ 1 σ2 c )[ C2 0−2C0 ( τy′a+ µc σ2 c )( τa′a+ 1 σ2 c )−1 ]} completando o quadrado com a constante [( τy′a+ µc σ2 c )( τa′a+ 1 σ2 c )−1 ]′[( τy′a+ µc σ2 c )( τa′a+ 1 σ2 c )−1 ] : ∝ exp { − 1 2 ( τa′a+ 1 σ2 c )[ C2 0 −2C0 ( τy′a+ µc σ2 c )( τa′a+ 1 σ2 c )−1 + [( τy′a+ µc σ2 c )( τa′a+ 1 σ2 c )−1 ]′ [( τy′a+ µc σ2 c )( τa′a+ 1 σ2 c )−1 ]]} que pode ser expresso como o núcleo da distribuição normal como: ∝ exp −1 2 [ C0− ( τy′a+ µc σ2 c )( τa′a+ 1 σ2 c )−1 ]′[( τa′a+ 1 σ2 c )−1 ]−1[ C0− ( τy′a+ µc σ2 c )( τa′a+ 1 σ2 c )−1 ] , ou seja, C0|v,τ,y,µc,σ 2 c ∼ N τy′a+ µc σ2 c τa′a+ 1 σ2 c , 1 τa′a+ 1 σ2 c  (4.1) em que a = [ 1− exp ( − ln(2) v t )] . Observa-se pela expressão (4.1) que a condicional completa a posteriori do modelo Stanford & Smith para o parâmetro C0 foi a distribuição normal e que depende dos hiper- parâmetros da distribuição a priori. Como foi obtida distribuição conhecida foi aplicada a amostragem Gibbs para obter amostras da distribuição marginal. Os cálculos algébricos para obter a condicional completa a posteriori do parâmetro τ é apresentado a seguir: P ( τ|C0,v,y, 1 δ ) ∝ P(τ)L(y|C0,v,τ) ∝ exp { − τ δ } τ n 2 exp { −τ 2 ( y−C0 [ 1− exp ( −ln(2) v t )])′( y−C0 [ 1− exp ( −ln(2) v t )])} 52 ∝ τ n 2+1−1exp { −τ [ 1 2 ( y−C0 [ 1− exp ( −ln(2) v t )])′( y−C0 [ 1− exp ( −ln(2) v t )]) + 1 δ ]} , ou seja, τ|C0,v,y, 1 δ ∼G n 2 +1, ( y−C0 [ 1− exp ( − ln(2) v t )])′( y−C0 [ 1− exp ( − ln(2) v t )]) + 2 δ 2  (4.2) Observa-se pela expressão (4.2) que a condicional completa a posteriori do modelo Stanford & Smith para o parâmetro τ foi a distribuição gama e que depende do hiperparâmetro da distribuição a priori. Como foi obtida distribuição conhecida foi aplicada a amostragem Gibbs para obter amostras da distribuição marginal. Os cálculos algébricos para obter a condicional completa a posteriori do parâmetro v é apresentado a seguir: P(v|C0,τ,y,µv,σ 2 v ) ∝ P(v)L(y|C0,v,τ) ∝ exp { − 1 2σ2 v (v−µv) ′ (v−µv) } exp { −τ 2 ( y−C0 [ 1− exp ( −ln(2) v t )])′( y−C0 [ 1− exp ( −ln(2) v t )])} ou seja, P(v|C0,τ,y,µv,σ 2 v ) ∝ ∝ exp { −τ 2 ( y−C0 [ 1− exp ( − ln(2) v t )])′( y−C0 [ 1− exp ( − ln(2) v t )]) − 1 2σ2 v (v−µv) ′(v−µv) } (4.3) Para o parâmetro v a condicional completa a posteriori (4.3) não foi conhecida, assim foi utilizado o algoritmo Metropolis-Hastings, o qual foi obtida as aproximações da distribuição marginal. 53 4.2 Análise da sensibilidade dos hiperparâmetros das prioris na curva a posteriori do modelo Stanford & Smith Na Figura 4.1, apresenta-se como a mudança nos valores do hiperparâmetro σ2 c afeta a curva a posteriori, mantendo-se os outros hiperparâmetros constantes. Observa-se pela Figura 4.1 (a-c) que aumentando-se o valor da variância a priori σ2 c , a média a priori µc = 400, do parâmetro C0 (assíntota horizontal superior) influencia menos na média a posteriori e tende a média a posteriori dos valores observados (nesse caso, como especificado na seção material e métodos, o valor simulado para a assíntota horizontal superior foi de 550). Obviamente, se o valor da média a priori µc for próxima da média dos valores observados o hiperparâmetro σ2 c não afetará a curva a posteriori. Figura 4.1 – Influência do hiperparâmetro σ2 c na curva a posteriori. Influência de (a) σ2 c = 10, (b) σ2 c = 1000 e (c) σ2 c = 10000 mantendo os outros hiperparâmetros constantes. ● ● ● ● ● ● ● ● ● ● ● ● 0 20 40 60 80 10 0 30 0 50 0 Dias após a incubação C O 2 m in er al iz ad o m g/ kg Priori Verossimilhança Posteriori (a) ● ● ● ● ● ● ● ● ● ● ● ● 0 20 40 60 80 10 0 30 0 50 0 Dias após a incubação C O 2 m in er al iz ad o m g/ kg Priori Verossimilhança Posteriori (b) ● ● ● ● ● ● ● ● ● ● ● ● 0 20 40 60 80 10 0 30 0 50 0 Dias após a incubação C O 2 m in er al iz ad o m g/ kg Priori Verossimilhança Posteriori (c) Fonte: Do autor (2020). 54 Na Figura 4.2, apresenta-se como a mudança nos valores do hiperparâmetro σ2 v afeta a curva a posteriori, mantendo-se os outros hiperparâmetros constantes. Observa-se pela Figura 4.2 (a-c) que aumentando-se o valor da variância a priori σ2 v , a média a priori µv = 35, do parâmetro v (tempo de meia vida) influencia menos na média a posteriori e tende a média a posteriori dos valores observados (nesse caso, como especificado na seção material e métodos, o valor simulado para o tempo de meia vida foi de 25). Figura 4.2 – Influência do hiperparâmetro σ2 v na curva a posteriori. Influência de (a) σ2 v = 3, (b) σ2 v = 25 e (c) σ2 v = 100 mantendo os outros hiperparâmetros constantes. O valor indicado com a reta vertical indica o tempo de meia vida a posteriori. ● ● ● ● ● ● ● ● ● ● ● ● 0 20 40 60 80 10 0 30 0 50 0 Dias após a incubação C O 2 m in er al iz ad o m g/ kg Priori Verossimilhança Posteriori (a) ● ● ● ● ● ● ● ● ● ● ● ● 0 20 40 60 80 10 0 30 0 50 0 Dias após a incubação C O 2 m in er al iz ad o m g/ kg Priori Verossimilhança Posteriori (b) ● ● ● ● ● ● ● ● ● ● ● ● 0 20 40 60 80 10 0 30 0 50 0 Dias após a incubação C O 2 m in er al iz ad o m g/ kg Priori Verossimilhança Posteriori (c) Fonte: Do autor (2020). Na Figura 4.3, apresenta-se como a mudança nos valores do hiperparâmetro δ = 1 σ2 afeta a curva a posteriori, mantendo-se os outros hiperparâmetros constantes. Diminuindo-se os 55 valores de σ2 (Figura 4.2 (a-c)) a curva a posteriori tende a aproximar dos valores observados, ou seja, considerando-se a princípio que os dados apresentam pequena variabilidade a posteriori tende a aproximar dos valores observados. Caso contrário, a posteriori tende a ficar próxima da curva a priori. Figura 4.3 – Influência do hiperparâmetro δ na curva a posteriori. Influência de (a) δ = 1 10002 , (b) δ = 1 1002 e (c) δ = 1 1 mantendo os outros hiperparâmetros constantes. ● ● ● ● ● ● ● ● ● ● ● ● 0 20 40 60 80 10 0 30 0 50 0 Dias após a incubação C O 2 m in er al iz ad o m g/ kg Priori Verossimilhança Posteriori (a) ● ● ● ● ● ● ● ● ● ● ● ● 0 20 40 60 80 10 0 30 0 50 0 Dias após a incubação C O 2 m in er al iz ad o m g/ kg Priori Verossimilhança Posteriori (b) ● ● ● ● ● ● ● ● ● ● ● ● 0 20 40 60 80 10 0 30 0 50 0 Dias após a incubação C O 2 m in er al iz ad o m g/ kg Priori Verossimilhança Posteriori (c) Fonte: Do autor (2020). 56 4.3 Condicionais completas a posteriori do modelo Cabrera A inferência sobre cada parâmetro do modelo Cabrera foi realizada por meio da dis- tribuição marginal de cada parâmetro. Pelo Toerema de Bayes (2.4), fazendo-se o produto da verossimilhança com as distribuições a priori obtém-se a distribuição conjunta a posteriori (3.13). A partir da distribuição conjunta a posteriori do modelo Cabrera, foram obtidas as distribuições condicionais completas a posteriori, por meio das quais foram obtidas amostras das distribuições marginais. A seguir é apresentado o desenvolvimento algébrico pelo qual foram obtidas as distribuições condicionais completas a posteriori de cada parâmetro do modelo Cabrera. A princípio foi obtida a condicional completa P(C1|v,k0,τ,y,µc,σ 2 c ) do parâmetro C1: P(C1|v,k0,τ,y,µc,σ 2 c ) ∝ P(C1)L(y|C1,v,k0,τ) ∝ exp { − 1 2σ2 c (C1−µc) ′ (C1−µc) } × ×exp { −τ 2 ( y− [ C1 [ 1− exp ( −ln(2) v t )] + k0t ])′( y− [ C1 [ 1− exp ( −ln(2) v t )] + k0t ])} . Seja a = 1− exp ( −ln(2) v t ) , então: P(C1|v,k0,τ,y,µc,σ 2 c ) ∝ ∝ exp { − 1 2σ2 c (C1−µc) ′ (C1−µc) } exp { −τ 2 (y− [C1a+ k0t])′ (y− [C1a+ k0t]) } desenvolvendo a transposta, tem-se: ∝ exp { − 1 2σ2 c ( C2 1−C1µc−µcC1 +µ 2 c )} × ×exp { −τ 2 ( y′y−y′C1a−y′k0t−a′C1y− t′k0y+a′C2 1a+a′C1k0t+ t′k0C1a+ t′k2 0t )} desconsiderando-se os termos constantes (que não depende de C1) e observando-se que y′a = a′y e t′a = a′t, pois são escalares, obtem-se: ∝ exp { −τ 2 ( −2C1y′a+C2 1a′a+2C1k0t′a ) − 1 2σ2 c ( C2 1−2C1µc )} 57 ∝ exp { τC1y′a− τ 2 C2 1a′a− τC1k0t′a− 1 2σ2 c C2 1 + C1µc σ2 c } colocando-se em evidência −1 2 C2 1 e C1: ∝ exp { −1 2 C2 1 ( τa′a+ 1 σ2 c ) +C1 ( τy′a− τk0t′a+ µc σ2 c )} colocando-se em evidência −1 2 ( τa′a+ 1 σ2 c ) : ∝ exp { −1 2 ( τa′a+ 1 σ2 c )[ C2 1−2C1 ( τy′a− τk0t′a+ µc σ2 c )( τa′a+ 1 σ2 c )−1 ]} ∝ exp { −1 2 ( τa′a+ 1 σ2 c )[ C2 1−2C1 ( τ(y− k0t)′a+ µc σ2 c )( τa′a+ 1 σ2 c )−1 ]} completando o quadrado com a constante [( τ(y− k0t)′a+ µc σ2 c )( τa′a+ 1 σ2 c )−1 ]′ [( τ(y− k0t)′a+ µc σ2 c )( τa′a+ 1 σ2 c )−1 ] : ∝ exp { − 1 2 ( τa′a+ 1 σ2 c )[ C2 1 −2C1 ( τ(y− k0t)′a+ µc σ2 c )( τa′a+ 1 σ2 c )−1 + [( τ(y− k0t)′a+ µc σ2 c )( τa′a+ 1 σ2 c )−1 ]′ [( τ(y− k0t)′a+ µc σ2 c )( τa′a+ 1 σ2 c )−1 ]]} que pode ser expresso como o núcleo da distribuição normal como: ∝ exp − 1 2 [ C1− ( τ(y− k0t)′a+ µc σ2 c )( τa′a+ 1 σ2 c )−1 ]′ [( τa′a+ 1 σ2 c )−1 ]−1 [ C1− ( τ(y− k0t)′a+ µc σ2 c )( τa′a+ 1 σ2 c )−1 ] , ou seja, C1|k0,v,τ,y,µc,σ 2 c ∼ N τ(y− k0t)′a+ µc σ2 c τa′a+ 1 σ2 c , 1 τa′a+ 1 σ2 c  (4.4) em que a = [ 1− exp ( − ln(2) v t )] . Observa-se pela expressão (4.4) que a condicional completa a posteriori do modelo Cabrera para o parâmetro C1 foi a distribuição normal e que depende dos hiperparâmetros da distribuição a priori. Como foi obtida distribuição conhecida foi aplicada a amostragem Gibbs para obter amostras da distribuição marginal. Os cálculos algébricos para obter a condicional completa a posteriori do parâmetro k0 é apresentado a seguir: P(k0|C1,v,τ,y,µk,σ 2 k ) ∝ P(k0)L(y|C1,v,k0,τ) 58 ∝ exp { − 1 2σ2 k (k0−µk) ′ (k0−µk) } × ×exp { −τ 2 ( y− [ C1 [ 1− exp ( −ln(2) v t )] + k0t ])′( y− [ C1 [ 1− exp ( −ln(2) v t )] + k0t ])} . Seja d =C1 [ 1− exp ( −ln(2) v t )] , então: P(k0|C1,v,τ,y,µk,σ 2 k )∝ exp { − 1 2σ2 k (k0−µk) ′ (k0−µk) } exp { −τ 2 (y− [d+ k0t])′ (y− [d+ k0t]) } desenvolvendo a transposta, tem-se: ∝ exp { − 1 2σ2 k (k2 0− k0µk−µkk0 +µ 2 k ) } × ×exp { −τ 2 (y′y−y′d−y′k0t−d′y− k0t′y+d′d+d′k0t+ k0t′d+ k2 0t′t) } desconsiderando-se os termos constantes (que não dependem de k0) e observando-se que t′y = y′t e t′d = d′t, pois são escalares, obtem-se: ∝ exp { −τ 2 (−2k0t′y+2k0t′d+ k2 0t′t)− 1 2σ2 k (k2 0−2k0µk) } ∝ exp { τk0t′y− τk0t′d− τ 2 k2 0t′t− 1 2σ2 k k2 0 + k0µk σ2 k } colocando-se em evidência −1 2 k2 0 e k0: ∝ exp { −1 2 k2 0 ( τt′t+ 1 σ2 k ) + k0 ( τt′y− τt′d+ µk σ2 k )} colocando-se em evidência −1 2 ( τt′t+ 1 σ2 k ) : ∝ exp { −1 2 ( τt′t+ 1 σ2 k )[ k2 0−2k0 ( τt′y− τt′d+ µk σ2 k )( τt′t+ 1 σ2 k )−1 ]} completando o quadrado com a constante (τt′y− τt′d+ µk σ2 k )( τt′t+ 1 σ2 k )−1 ′(τt′y− τt′d+ µk σ2 k )( τt′t+ 1 σ2 k )−1 : ∝ exp − 1 2 ( τt′t+ 1 σ2 k )k2 0 −2k0 ( τt′y− τt′d+ µk σ2 k )( τt′t+ 1 σ2 k )−1 + (τt′y− τt′d+ µk σ2 k )( τt′t+ 1 σ2 k )−1 ′(τt′y− τt′d+ µk σ2 k )( τt′t+ 1 σ2 k )−1  59 ∝ exp − 1 2 ( τt′t+ 1 σ2 k )k2 0 −2k0 ( τt′(y−d)+ µk σ2 k )( τt′t+ 1 σ2 k )−1 + (τt′(y−d)+ µk σ2 k )( τt′t+ 1 σ2 k )−1 ′(τt′(y−d)+ µk σ2 k )( τt′t+ 1 σ2 k )−1  que pode ser expresso como o núcleo da distribuição normal como: ∝ exp − 1 2 k0− ( τt′(y−d)+ µk σ2 k )( τt′t+ 1 σ2 k )−1 ′(τt′t+ 1 σ2 k )−1 −1k0− ( τt′(y−d)+ µk σ2 k )( τt′t+ 1 σ2 k )−1   , ou seja, k0|C1,v,τ,y,µk,σ 2 k ∼ N  τt′ ( y−C1 [ 1− exp ( − ln(2) v t )]) + µk σ2 k τt′t+ 1 σ2 k , 1 τt′t+ 1 σ2 k  (4.5) Observa-se pela expressão (4.5) que a condicional completa a posteriori do modelo Cabrera para o parâmetro k0 foi a distribuição normal e que depende dos hiperparâmetros da distribuição a priori. Como foi obtida distribuição conhecida foi aplicada a amostragem Gibbs para obter amostras da distribuição marginal. Os cálculos algébricos para obter a condicional completa a posteriori do parâmetro τ é apresentado a seguir: P ( τ|C1,v,k0,y, 1 δ ) ∝ P(τ)L(y|C1,v,k0,τ) ∝ exp { − τ δ } τ n 2 exp { − τ 2 ( y− [ C1 [ 1− exp ( −ln(2) v t )] + k0t ])′( y− [ C1 [ 1− exp ( −ln(2) v t )] + k0t ])} ∝ τ n 2 +1−1exp { −τ [ 1 2 ( y− [ C1 [ 1− exp ( −ln(2) v t )] + k0t ])′( y− [ C1 [ 1− exp ( −ln(2) v t )] + k0t ]) + 1 δ ]} , ou seja, τ|C1,k0,v,y, 1 δ ∼ ∼G n 2 +1, ( y− [ C1 [ 1− exp ( − ln(2) v t )] + k0t ])′( y− [ C1 [ 1− exp ( − ln(2) v t )] + k0t ]) + 2 δ 2  (4.6) Observa-se pela expressão (4.6) que a condicional completa a posteriori do modelo Cabrera para o parâmetro τ foi a distribuição gama e que depende do hiperparâmetro da 60 distribuição a priori. Como foi obtida distribuição conhecida foi aplicada a amostragem Gibbs para obter amostras da distribuição marginal. Os cálculos algébricos para obter a condicional completa a posteriori do parâmetro v é apresentado a seguir: P(v|C1,k0,τ,y,µv,σ 2 v ) ∝ P(v)L(y|C1,v,k0,τ) ∝ exp { − 1 2σ2 v (v−µv) ′ (v−µv) } exp { − τ 2 ( y− [ C1 [ 1− exp ( −ln(2) v t )] + k0t ])′( y− [ C1 [ 1− exp ( −ln(2) v t )] + k0t ])} ou seja, P(v|C1,k0,τ,y,µv,σ 2 v ) ∝ ∝ exp { − τ 2 ( y− [ C1 [ 1− exp ( − ln(2) v t )] + k0t ])′( y− [ C1 [ 1− exp ( − ln(2) v t )] + k0t ]) − 1 2σ2 v (v−µv) ′(v−µv) } (4.7) Para o parâmetro v a condicional completa a posteriori (4.7) não foi conhecida, assim foi utilizado o algoritmo Metropolis-Hastings, o qual foi obtido as aproximações da distribuição marginal. 61 4.4 Análise da sensibilidade dos hiperparâmetros das prioris na curva a posteriori do modelo Cabrera Na Figura 4.4, apresenta-se como a mudança nos valores do hiperparâmetro σ2 c afeta a curva a posteriori, mantendo-se os outros hiperparâmetros constantes. Observa-se pela Figura 4.4 (a-c) que aumentando-se o valor da variância a priori σ2 c , nos primeiros dias de incubação, a curva a posteriori tende a verossimilhança (curva ajustada dos dados), visto que o carbono facilmente mineralizável C1, está diretamente associado a mineralização das substâncias de fácil decomposição que acontece no início da incubação e consequentemente afeta o carbono resistente que é mineralizado constantemente. Claramente, se o valor da média a priori µc for próxima da média dos valores observados o hiperparâmetro σ2 c não afetará a curva a posteriori. Figura 4.4 – Influência do hiperparâmetro σ2 c na curva a posteriori. Influência de (a) σ2 c = 1000, (b) σ2 c = 3000 e (c) σ2 c = 10000 mantendo os outros hiperparâmetros constantes. ● ● ● ● ● ● ● ● ● ● ● ● 0 20 40 60 80 10 0 40 0 70 0 Dias após a incubação C O 2 m in er al iz ad o m g/ kg Priori Verossimilhança Posteriori ● ● ● ● ● ● ● ● ● ● ● ● 0 20 40 60 80 10 0 40 0 70 0 Dias após a incubação C O 2 m in er al iz ad o m g/ kg Priori Verossimilhança Posteriori ● ● ● ● ● ● ● ● ● ● ● ● 0 20 40 60 80 10 0 40 0 70 0 Dias após a incubação C O 2 m in er al iz ad o m g/ kg Priori Verossimilhança Posteriori Fonte: Do autor (2020). 62 Na Figura 4.5, apresenta-se como a mudança nos valores do hiperparâmetro σ2 v afeta a curva a posteriori, mantendo-se os outros hiperparâmetros constantes. Observa-se pela Figura 4.5 (a-c) que aumentando-se o valor da variância a priori σ2 v , a média a priori µv = 10, do parâmetro v (tempo de meia vida do carbono facilmente mineralizável) influencia menos na média a posteriori e tende a média a posteriori dos valores observados (nesse caso, como especificado na seção material e métodos, o valor simulado para o tempo de meia vida do carbono facilmente mineralizável foi de 25 dias). Figura 4.5 – Influência do hiperparâmetro σ2 v na curva a posteriori. Influência de (a) σ2 v = 5, (b) σ2 v = 35 e (c) σ2 v = 70 mantendo os outros hiperparâmetros constantes. O valor indicado com a reta vertical indica o tempo de meia vida do carbono facilmente mineralizável a posteriori. ● ● ● ● ● ● ● ● ● ● ● ● 0 20 40 60 80 10 0 40 0 70 0 Dias após a incubação C O 2 m in er al iz ad o m g/ kg Priori Verossimilhança Posteriori ● ● ● ● ● ● ● ● ● ● ● ● 0 20 40 60 80 10 0 40 0 70 0 Dias após a incubação C O 2 m in er al iz ad o m g/ kg Priori Verossimilhança Posteriori ● ● ● ● ● ● ● ● ● ● ● ● 0 20 40 60 80 10 0 40 0 70 0 Dias após a incubação C O 2 m in er al iz ad o m g/ kg Priori Verossimilhança Posteriori Fonte: Do autor (2020). 63 Na Figura 4.6, apresenta-se como a mudança nos valores do hiperparâmetro σ2 k afeta a curva a posteriori, mantendo-se os outros hiperparâmetros constantes. Observa-se pela Figura 4.6 (a-c) que aumentando-se o valor da variância a priori σ2 k , altera-se a inclinação da curva a posteriori, ou seja, a inclinação a priori passa a ter pouca influência na curva a posteriori e tende a inclinação dos dados, visto que o parâmetro k0 esta associado a mineralização do carbono resistente que é mineralizado constantemente. Figura 4.6 – Influência do hiperparâmetro σ2 k na curva a posteriori. Influência de (a) σ2 k = √ 0,1, (b) σ2 k = 1 e (c) σ2 k = 3 mantendo os outros hiperparâmetros constantes. ● ● ● ● ● ● ● ● ● ● ● ● 0 20 40 60 80 10 0 40 0 70 0 Dias após a incubação C O 2 m in er al iz ad o m g/ kg Priori Verossimilhança Posteriori ● ● ● ● ● ● ● ● ● ● ● ● 0 20 40 60 80 10 0 40 0 70 0 Dias após a incubação C O 2 m in er al iz ad o m g/ kg Priori Verossimilhança Posteriori ● ● ● ● ● ● ● ● ● ● ● ● 0 20 40 60 80 10 0 40 0 70 0 Dias após a incubação C O 2 m in er al iz ad o m g/ kg Priori Verossimilhança Posteriori Fonte: Do autor (2020). Na Figura 4.7, apresenta-se como a mudança nos valores do hiperparâmetro δ = 1 σ2 afeta a curva a posteriori, mantendo-se os outros hiperparâmetros constantes. Aumentando-se 64 os valores de σ2 (Figura 4.7 (a-c)) a curva a posteriori tende a aproximar da curva a priori, ou seja, considerando-se a princípio que os dados apresentam grande variabilidade a posteriori tende a ficar próxima da curva a priori. Caso contrário, a posteriori tende a ficar próxima dos valores observados. Figura 4.7 – Influência do hiperparâmetro δ na curva a posteriori. Influência de (a) δ = 1 152 , (b) δ = 1 5002 e (c) δ = 1 10002 mantendo os outros hiperparâmetros constantes. ● ● ● ● ● ● ● ● ● ● ● ● 0 20 40 60 80 10 0 40 0 70 0 Dias após a incubação C O 2 m in er al iz ad o m g/ kg Priori Verossimilhança Posteriori ● ● ● ● ● ● ● ● ● ● ● ● 0 20 40 60 80 10 0 40 0 70 0 Dias após a incubação C O 2 m in er al iz ad o m g/ kg Priori Verossimilhança Posteriori ● ● ● ● ● ● ● ● ● ● ● ● 0 20 40 60 80 10 0 40 0 70 0 Dias após a incubação C O 2 m in er al iz ad o m g/ kg Priori Verossimilhança Posteriori Fonte: Do autor (2020). 65 4.5 Análise dos dados de dejetos de suínos na superfície do solo Nas Tabelas 4.1 e 4.2, estão apresentados os resultados para a análise da convergência das cadeias dos modelos Stanford & Smith e Cabrera, ajustados aos dados de mineralização de CO2 de dejetos líquidos no solo. Como pelo critério de Geweke os valores-p foram maiores do que 0,05 para todos os parâmetros e ambos os modelos, não apresentaram evidências contra a convergência das cadeias, e também pode ser observado pelos gráficos dos traços das cadeias (Figuras 4.8 e 4.9). Pelo critério de Raftery e Lewis (1992) o fator de dependência (FD) sempre apresentou valor menor que cinco e pela regra de decisão verifica-se que não há evidências para rejeitar a não convergência das cadeias (Tabelas 4.1 e 4.2). Portanto, o uso dos métodos de Monte Carlo via Cadeias de Makov permitiu obter integração de densidades a posteriori complexas, tornando o método bayesiano acessível a pesquisadores de diversas áreas (FIRAT et al., 2016). Tabela 4.1 – Fator de dependência (FD) do critério de Raftery e Lewis e valor-p do critério de Geweke. Modelo Parâmetro FD Geweke valor-p Stanford & Smith C0 1,0654 0,9183 Stanford & Smith v 1,4084 0,8202 Stanford & Smith τ 1,0117 0,1954 Fonte: Do autor (2020). Figura 4.8 – Traço modelo Stanford & Smith. Fonte: Do autor (2020). 66 Tabela 4.2 – Fator de dependência (FD) do critério de Raftery e Lewis e valor-p do critério de Geweke. Modelo Parâmetro FD Geweke valor-p Cabrera C1 0,9858 0,6977 Cabrera v 1,0563 0,5379 Cabrera k0 0,9690 0,5275 Cabrera τ 0,9943 0,6522 Fonte: Do autor (2020). Figura 4.9 – Traço modelo Cabrera. Fonte: Do autor (2020). Nas Tabelas 4.3 e 4.4, estão apresentadas as médias e modas a posteriori e o intervalo de credibidade (HPD) para cada parâmetro dos modelos, bem como os gráficos das distribuições marginais do modelo Stanford & Smith estão apresentados na Figura 4.10 e do modelo Cabrera na Figura 4.11. As distribuições a posteriori foram obtidas (Figuras 4.10 e 4.11), assim a metod