<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Arquivos Bruno Borges de Souza - Estatidados</title>
	<atom:link href="http://estatidados.com.br/category/professores-colaboradores/bruno-borges-de-souza/feed/" rel="self" type="application/rss+xml" />
	<link>http://estatidados.com.br</link>
	<description>Comunidade de Estatística</description>
	<lastBuildDate>Thu, 09 Jun 2022 19:49:12 +0000</lastBuildDate>
	<language>pt-BR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.0</generator>
	<item>
		<title>O que são modelos científicos e como eles funcionam</title>
		<link>http://estatidados.com.br/o-que-sao-modelos-cientificos-e-como-eles-funcionam/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=o-que-sao-modelos-cientificos-e-como-eles-funcionam</link>
					<comments>http://estatidados.com.br/o-que-sao-modelos-cientificos-e-como-eles-funcionam/#respond</comments>
		
		<dc:creator><![CDATA[admin]]></dc:creator>
		<pubDate>Fri, 24 Sep 2021 12:15:13 +0000</pubDate>
				<category><![CDATA[Bruno Borges de Souza]]></category>
		<category><![CDATA[ciencia de dados]]></category>
		<category><![CDATA[Machine learning]]></category>
		<guid isPermaLink="false">http://estatidados.com.br/?p=652</guid>

					<description><![CDATA[<p>Com o conhecimento científico foi possível a realização de feitos antes inimagináveis, como a comunicação à velocidade da luz, nanotecnologia, fissão nuclear, viagem ao espaço, inteligência artificial, dentre outras. O poder do conhecimento científico está na criação de modelos que<a class="leiamais" href="http://estatidados.com.br/o-que-sao-modelos-cientificos-e-como-eles-funcionam/" title="O que são modelos científicos e como eles funcionam">...[Continuar lendo]</a></p>
<p>O post <a rel="nofollow" href="http://estatidados.com.br/o-que-sao-modelos-cientificos-e-como-eles-funcionam/">O que são modelos científicos e como eles funcionam</a> apareceu primeiro em <a rel="nofollow" href="http://estatidados.com.br">Estatidados</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>Com o conhecimento científico foi possível a realização de feitos antes inimagináveis, como a comunicação à velocidade da luz, nanotecnologia, fissão nuclear, viagem ao espaço, inteligência artificial, dentre outras. O poder do conhecimento científico está na criação de modelos que representam a realidade ou um fragmento de um sistema. Eles são usados na construção de teorias científicas, que visam capturar a estrutura ou dinâmica da própria realidade. A validação de uma teoria envolve testar hipóteses, que é baseada na análise de padrões encontrados em dados empíricos. Quer a hipótese seja baseada em dados ou na teoria, um conjunto de dados empíricos precisa estar disponível para testar os resultados do modelo. Em seguida, um processo algorítmico é projetado e implementado com o objetivo de descrever matematicamente a estrutura ou dinâmica de interesse. Posteriormente, o modelo é executado e validado comparando dados simulados com dados empíricos. Os insights resultantes inspiram novas hipóteses científicas e o modelo é refinado iterativamente ou novos modelos são desenvolvidos.</p>



<p>Uma pergunta que instiga muitos filósofos epistemológicos é como modelos são criados. Isso significa entender como ocorre o processo de aprendizado de um conhecimento científico, ou seja, entender como, a partir de dados experimentais, conseguimos extrapolá-los e criar modelos confiáveis. O que significa ser confiável na metodologia científica? Como ocorre o processo de generalização a partir da dedução e da indução do conhecimento empírico para um princípio universal, como as leis de Newton ou a mecânica quântica?</p>



<p>Indo além do mero aprendizado humano, pode-se questionar ainda os atuais modelos de aprendizado de máquina e fazer os mesmos questionamentos: Como máquinas aprendem e geram modelos confiáveis baseados apenas em dados empíricos? O que veremos nesse artigo é um paralelo entre filosofia, ciência e a inteligência artificial para nos aprofundarmos nesses questionamentos. Veremos o que significa um &#8220;bom modelo&#8221; na ciência e como o teste de hipóteses valida o conhecimento científico. Também será discutido a &#8220;fonte do conhecimento&#8221;, com suas escolas de pensamento empirista e racionalista e onde o aprendizado de máquina se encontra.</p>



<h3>O que caracteriza um bom modelo?</h3>



<p>Em certo sentido, todos os modelos estão errados. Isso implica que nenhuma descrição da realidade é a última e todos os modelos atuais estão sujeitos a refinamentos conforme novos dados são apresentados.</p>



<blockquote class="wp-block-quote"><p><em>&#8220;Todos os modelos implicam em esquematizações e simplificações que se traduzem em “suposições”. E cada suposição de um modelo é uma fonte possível de erro.&#8221;</em></p></blockquote>



<p>Dessa maneira, entendemos que ao criar um modelo, o objetivo não deve ser criar uma descrição última ou perfeita da realidade, e sim minimizar o erro entre a realidade objetiva e a descrição subjetiva dada pelo modelo. Mas existe uma descrição última da realidade que pode ser representada por um modelo matemático perfeito? Esse é um debate filosófico interessante, iniciada por Platão e Aristóteles, e ainda continua sem resposta, com duas correntes filosóficas concorrentes: a realista e a antirrealista.</p>



<p>Platão defende em obras como A República e Fédon, que o conhecimento só é alcançado quando atingimos a “ideia” ou “conceito” do objeto. Essa ideia estaria em um mundo independente das objeto, no &#8220;Mundo das Ideias&#8221;. Exemplo: Um modelo de um cavalo seria representação ideal (no mundo das ideias) de um cavalo e o cavalo real seria uma forma imperfeita desta ideia. O mesmo pode-se dizer de conceitos como Justiça, Beleza, etc. Existe um único modelo perfeito que descreve esses conceitos, que estão no Mundo das Ideias. Aristóteles, por outro lado, critica Platão justamente por criar uma independência entre a ideia abstrata do objeto e o objeto em si. Ele concorda, por exemplo, que a observação e comparação de diferentes tipos de cavalo levam a um grupo de aspectos que definem o “modelo de cavalo”, mas tal modelo não existe independentemente, e sim são uma maneira de categorizar objetos com atributos semelhantes a &#8220;cavalos&#8221; observados empiricamente.</p>



<p>Atualmente, o debate se divide entre realistas e antirrealistas. Apesar das diversas interpretações, em geral podemos dizer que o realismo sobre objetos matemáticos, modelos científicos ou processos mentais, se caracteriza pela afirmação de que os objetos em questão “realmente existem”, ou “desfrutam de uma existência independente de qualquer cognição”, ou “estão entre os constituintes últimos do mundo real”&nbsp;<a href="https://www.scielo.br/pdf/ciedu/v5n1/a02v5n1.pdf" target="_blank" rel="noreferrer noopener">[1]</a>. Realistas dizem que os cientistas interpretam “todas as teorias científicas como tentativas de descrições da realidade”. Usando como exemplo a teoria da gravitação universal de Newton, Força, inércia, gravidade, são entidades que realmente existem, pois elas revelam a estrutura causal do mundo. Um antirrealista acredita justamente no contrário. Berkeley, famoso antirrealista, contra-argumentaria Newton afirmando que essas entidades são apenas criações teóricas que compilam a bem e experiência dos sentidos, mas não existem em um &#8220;Mundo das Ideias Platônico&#8221; ou é a última descrição da realidade. Se você já ouviu a discussão &#8220;A matemática é descoberta ou inventada?&#8221;, saiba que isso é basicamente uma discussão profunda sobre o realismo e antirrealismo da matemática.</p>



<p>Pensando de maneira mais concreta, independente se tais modelos existem ou são constructos mentais, é importante entender o que caracteriza um bom modelo, seja ele físico, biológico, econômico, etc. As principais características de tais modelos são:</p>



<ul><li><strong>Parcimônia&nbsp;</strong>&#8211; Aqui temos a questão da simplicidade: Modelos que dependem de menos suposições para explicar um determinado fenômeno são preferíveis. Isso evita o sobreajuste (<em>overffiting</em>), e tais modelos podem falhar em fazer previsões para situações ainda não observadas. Cientistas e analistas de dados conhecem muito bem esse problema, e técnicas rotineiras, como o&nbsp;<em>cross-validation,</em>&nbsp;são tentativas de evitar o&nbsp;<em>overffiting.&nbsp;</em>Na ciência, um exemplo interessante era o debate entre geocentrismo e heliocentrismo. O modelo geocêntrico era demasiadamente complicado, pois ao assumir que a Terra era o centro do Sistema Solar, teria que criar &#8220;epiciclos&#8221; nas órbitas de outros planetas para explicar os problemas de perspectiva do movimento dos planetas ao serem observados na Terra. Aliás, falharia completamente se tivesse que explicar as órbitas em exoplanetas, algo que não acontece com o heliocentrismo.</li></ul>



<figure class="wp-block-image"><img src="https://media-exp1.licdn.com/dms/image/C4D12AQEexfyyvG-r6g/article-inline_image-shrink_1000_1488/0/1617204319498?e=1637798400&amp;v=beta&amp;t=NbF6ptNMl_ilTd9uJOE_AVPAaO6_RCu62D21Zu5srgE" alt="Não foi fornecido texto alternativo para esta imagem"/></figure>



<ul><li><strong>Perspicácia&nbsp;</strong>&#8211; São modelos que revelam propriedades fundamentais do objeto que está sendo representado. Quando Newton, escreveu que sua teoria é &#8220;O Sistema do Mundo&#8221; ele não estava exagerando: Ele revelou propriedades fundamentais da gravidade, como a teoria da gravitação universal e as famosas Leis de Newton, que revolucionou a física em sua época. Um modelo ainda mais perspicaz é a Teoria da Relatividade Geral, onde Einstein entendeu a gravidade como a distorção causada pela matéria no tecido do próprio Espaço-Tempo.</li><li><strong>Generalização&nbsp;</strong>&#8211; São modelos que podem ser aplicados em uma ampla gama de situações. Por exemplo, as Leis de Newton podem explicar porque as maças caem enquanto a Lua não. As equações de Maxwell são capazes de explicar satisfatoriamente todos os fenômenos elétricos e magnéticos existentes e unificá-lo num único modelo , descrita pela&nbsp;<em>Teoria Eletromagnética.&nbsp;</em>Indo além, físicos buscaram criar modelos ainda mais gerais, buscando unificar as forças fundamentais da natureza: a unificação da força eletromagnética com a força nuclear fraca gerou a&nbsp;<em>Teoria Eletrofraca</em>, e uma unificação ainda maior, adicionando a força nuclear forte, gerou a chamada&nbsp;<em>Grande Teoria Unificada</em>&nbsp;(GUT) que pode explicar fenômenos que aconteceram próximo ao Big Bang, quando tais forças ainda não eram distintas. O Santa Graal da física é a unificação de todas as forças fundamentais numa única teoria (A Teoria de Tudo), mas a gravidade, a mais fraca das forças, ainda é difícil de ser explicada em nível quântico, causando total incompatibilidade entre a Teoria da Relatividade Geral e a Mecânica Quântica.</li><li><strong>Falseabilidade &#8211;&nbsp;</strong>Essa é uma propriedade fundamental da ciência. Todos os modelos científicos devem passar por um teste que possa verificar se determinada ideia, hipótese ou teoria é falsa. Um modelo é falseável se e somente faz previsões não triviais que podem, em princípio, ser falsificadas empiricamente. Se um modelo não faz previsões falsificáveis, então o modelo não pode ser avaliado empiricamente.<strong>&nbsp;</strong>Tal propriedade está diretamente relacionada com a&nbsp;<strong>previsão</strong>, já que para passar na falseabilidade, a predição do modelo deve ser avaliada no teste de hipóteses, onde o&nbsp;<em>status quo&nbsp;</em>e a hipótese alternativa (do modelo) são avaliado com dados observáveis. A teoria de Newton foi extensivamente avaliada em diversos fenômenos onde foi comprovado o poder de previsão. Apesar disso, em alguns fenômenos, onde o efeito gravitacional é muito forte ou onde o objeto está próximo à velocidade da luz, a teoria falha, e é necessário considerar efeitos relativísticos, que só podem ser explicadas pela relatividade especial e geral de Einstein. Uma teoria famosa que por enquanto nem teoricamente pode ser falseada é a Teoria da Supercordas, tentativa de unificar todas as forças fundamentais, onde os menores constituintes da realidade são pequenos filamentos de energia semelhantes a pequenas&nbsp;cordas vibrantes. O problema é que para detectar essas cordas seria necessário um acelerador de partículas maior que o sistema solar. Devido a essa impossibilidade de verificar se a teoria está correta ou não, muitos físicos não consideram a Teoria das Supercordas como ciência.</li></ul>



<h3>Teste de hipóteses: como os modelos são avaliados</h3>



<p>O Teste de hipóteses é um procedimento estatístico fundamental na tomada de decisões, entre aceitar ou não uma hipótese. Na ciência, é utilizado para validar resultados de estudos, com o objetivo de aceitar ou não a hipótese nula, dada um determinado nível de significância (<em>p-value</em>). Para exemplificar como o teste de hipóteses funciona, vamos considerar duas moedas. Gostaria de avaliar se essas moedas são justas ou viciadas. Um modelo de moeda justa teria como resultado de lançamentos um valor próximo a 50% cara e 50% coroa, enquanto um modelo de moeda viciada teria uma proporção diferente. A hipótese nula é sempre o status quo, ou seja, que a moeda é justa (você geralmente recebe uma moeda justa, você que propôs que ela é viciada, que no caso forma a hipótese alternativa). Jogando cada moeda 10 vezes chegamos no seguinte resultado, onde cara é C e coroa é K:</p>



<p><strong>Moeda 1: CKCCKKCCKC</strong></p>



<p><strong>Moeda 2: CCCCCCCKCC</strong></p>



<figure class="wp-block-image"><img src="https://media-exp1.licdn.com/dms/image/C4D12AQFlafulTZiFYw/article-inline_image-shrink_1000_1488/0/1617221791324?e=1637798400&amp;v=beta&amp;t=yO1M9AcAR76RrPUb1IgcmFA_DhDnUdTOopUj2C7NoKc" alt="Não foi fornecido texto alternativo para esta imagem"/></figure>



<p>Vamos avaliar a moeda 1: Quais chances de uma moeda justa dar 6 caras e 4 coroas? Usando a distribuição binomial, chegamos em 23%. Se usarmos um&nbsp;<em>p-value</em>&nbsp;de 5%, então a hipótese nula só seria rejeitada caso um evento incomum acontecesse menos que 5% das vezes. Com 23% de chance de ocorrer tal evento, falhamos em rejeitar a hipótese nula.</p>



<p>Agora vamos avaliar a moeda 2: Nessa caso, temos 9 caras e uma coroa. As chances disso acontecer é de 0.9%, valor suficiente para classificá-lo como &#8220;raro&#8221;, já que é menor que o p-value de 5%. Assim, rejeitamos a hipótese nula, ou seja, a moeda é viciada.</p>



<p>Então, o p-value avalia o quão provável ou improvável é um evento ao considerar a hipótese nula. Se você quer avaliar se uma vacina é segura, precisa fazer um teste em uma amostra significativa de pessoas e, considerando como hipótese nula que a vacina NÃO é segura , obter uma probabilidade baixa o suficiente de alguém ter algum efeito colateral ao tomar a vacina de maneira que te levaria a rejeitar a hipótese nula.</p>



<p>Pra exemplificar o conceito de ter uma amostra significativa, considere que você está avaliando uma terceira moeda, e fez três lançamentos com os seguintes resultados:</p>



<p><strong>Moeda 3: CCC</strong></p>



<p>Tivemos 100% de caras, o que leva a crer que é uma moeda viciada. Mas o p-value, ou seja, as chances de uma moeda justa dar esse resultado, é de 12,8%, o que falharia em rejeitar a hipótese de que a moeda é justa! Isso mostra que o teste de hipóteses é sensível ao tamanho da amostra. Então tenha muitos dados para avaliar.</p>



<h3>Teorias do Aprendizado</h3>



<p>Uns dos debates mais importantes da filosofia se diz a respeito de como aprendemos, ou seja, de que maneira o conhecimento genuíno e necessário é adquirido, compreendendo as diversas formas de buscá-lo Na filosofia moderna, houveram duas correntes diferentes de pensamento. A primeira, iniciada por René Descartes e que também foi adotada por Leibniz e Noam Chomsky é a&nbsp;<strong>racionalista</strong>. Como oposição, temos o&nbsp;<strong>empirismo,</strong>&nbsp;onde temos como maiores defensores dessa corrente Locke, Berkeley e Hume.</p>



<p>No&nbsp;<strong>racionalismo</strong>, tem-se a razão como principal fonte de conhecimento humane e acredita-se na dedução como principal método investigativo. Temos um &#8220;conhecimento inato&#8221; como certas categorias de espaço, de tempo e de causa e efeito. Com esse conhecimento, em sua forma mais pura, o racionalismo chega ao ponto de sustentar que todas as nossas crenças racionais, e a totalidade do conhecimento humano, consistem em primeiros princípios e conceitos inatos que são de alguma forma gerados e certificados pela razão, junto com qualquer coisa logicamente dedutível a partir desses primeiros princípios. Esses princípios, os fundamentos do nosso conhecimento, são proposições que são evidentes por si mesmas (auto-evidentes). Por exemplo, Descartes acreditava que deveríamos desconfiar de tudo, menos na própria capacidade de duvidar e, a partir dessa certeza do &#8220;Penso, logo existo&#8221;, seriam deduzidos novos conhecimentos. Outro exemplo seriam os teoremas matemáticos, onde por dedução podemos chegar a conclusões racionais absolutas.</p>



<p>O&nbsp;<strong>empirismo</strong>, por outro lado, afirma que a experiência é a fonte do conhecimento, tendo a indução da experiência como principal método investigativo, Para os empiristas, todas as nossas ideias vêm unicamente da experiência sensorial. Nosso conhecimento é&nbsp;<em>a posteriori</em>, na medida em vamos tendo experiência do assunto, e é dependente da experiência dos sentidos. Os empiristas também negam a implicação da tese do conceito inato, correspondente a de que temos ideias inatas na área de assunto. Eles também rejeitam a versão correspondente da tese da superioridade da razão. Visto que a razão por si só não nos dá nenhum conhecimento, certamente não nos dá um conhecimento superior. Os empiristas podem afirmar, como alguns fazem para alguns sujeitos, que os racionalistas estão corretos ao afirmar que a experiência não pode nos dar conhecimento. A conclusão que eles tiram dessa lição racionalista é que não sabemos nada. David Hume, um empirista radical, gostava de usar como exemplo o nascer do sol. Ele dizia que o nascer do sol é um conhecimento adquirido através da indução, já que você viu o sol nascer no leste desde que você nasceu, mas não temos garantias de que ele vai nascer amanhã, isso não pode ser uma afirmação auto-evidente.</p>



<p>Racionalismo e empirismo não precisam entrar em conflito. Podemos ser racionalistas em matemática, já que teoremas como o Teorema de Pitágoras ou o Teorema Fundamental do Cálculo podem ser deduzidos a priori, e podemos ser empiristas em todas ou em algumas das ciências físicas, utilizando o teste de hipóteses para validar experimentos. Racionalismo e empirismo só entram em conflito quando formulados para cobrir o mesmo assunto. E para solucionar esse conflito, chegamos em&nbsp;<strong>Immanuel Kant,&nbsp;</strong>que revolucionou a epistemologia em sua grande obra &#8220;Crítica da Razão Pura&#8221;.</p>



<p>Kant cria a Teoria dos Juízos, onde ele dirá que existem o Juízo analítico e o Juízo sintético. Juízos analíticos são aqueles em que o predicado não acrescenta em nada o sujeito, exemplo &#8220;Todo triângulo tem três lados&#8221; ou &#8220;Todos os corpos são extensos. Como não dependem de tempo e lugar, são juízos&nbsp;<em>a priori</em>&nbsp;e universais. Juízos sintéticos são aqueles que acrescentam algo ao sujeito, como por exemplo &#8220;Todos os corpos são pesados&#8221; e sempre partem da experiência. Podem ser divididos em dois tipo:&nbsp;<em>A priori&nbsp;</em>e&nbsp;<em>A posteriori.&nbsp;</em>O juízo sintético&nbsp;<em>a posteriori&nbsp;</em>é baseado na indução da experiência, enquanto o juízo sintético&nbsp;<em>a priori&nbsp;</em>não necessitam da experiência imediata, como as afirmações matemáticas. Parece confuso à vista, já que se tende a acreditar que a afirmação &#8220;7+5=12&#8221; é puramente analítica, mas como Kant descreve em &#8220;Crítica da Razão Pura&#8221; [2]:</p>



<blockquote class="wp-block-quote"><p>Poder-se-ia em verdade crer, à primeira vista, que a proposição 7 + 5 = 12 é puramente analítica, resultante, segundo o princípio de contradição, do conceito de uma soma de sete e cinco. Mas se a considerarmos com mais atenção, acharemos que o conceito de soma de sete e cinco não contém mais do que a união dos dois números em um só, o que não faz pensar qual seja esse número único que compreenda aos outros dois. O conceito de 12 não é de modo algum percebido só pelo pensamento da união de cinco e sete, e posso decompor todo meu conceito dessa soma tanto quanto quiser, sem que por isso encontre o número 12. É preciso, pois, ultrapassar esse conceito recorrendo-se à intuição correspondente a um dos dois números, e aditar sucessivamente ao conceito sete as cinco unidades dadas na intuição. [&#8230;] A proposição aritmética é, pois, sempre sintética: o que se compreende ainda mais claramente se se tomam números maiores, pois então é evidente que, por mais que volvamos e coloquemos nosso conceito quanto quisermos, nunca poderemos achar a soma mediante a simples decomposição de nossos conceitos e sem o auxilio da intuição.&nbsp;</p></blockquote>



<p>Um problema que surge imediatamente quando se fala em juízos sintéticos a priori é o verdadeiro problema da razão pura. Como são possíveis os juízos sintéticos&nbsp;<em>a priori</em>? Como se origina o conhecimento da física teórica e da matemática pura? Como são teorizados os modelos científicos que tanto transformaram o mundo? Kant, para responder essa pergunta, cria a&nbsp;<strong>Teoria Elementar Transcendental,</strong>&nbsp;divididas em estética e lógica transcendental.</p>



<p>A Estética transcendental é a ciência de todos os princípios. É a priori, e diz respeito à capacidade de adquirirmos conhecimento de acordo com a sensibilidade. É apenas através da sensibilidade que podemos ter uma intuição do objetos de estudo. Entenda a intuição como a capacidade de encontrar indícios que levem a alguma correlação, generalização, a algum conhecimento sintético. Conforme afirma Kant:</p>



<blockquote class="wp-block-quote"><p>Todo pensamento deve em última análise, seja direta ou indiretamente, mediante certos caracteres, referir-se às intuições, e, conseguintemente, à sensibilidade, porque de outro modo nenhum objeto nos pode ser dado.</p></blockquote>



<p>Entremos agora no conceito de<strong>&nbsp;lógica transcendental</strong>. Quando falamos da lógica geral, abstraímos a matéria do conhecimento intelectual e toda a diversidade de seus objetos, e só nos ocupamos com a forma do pensamento. Como Lógica&nbsp;<strong>pura</strong>, não tem nenhum princípio empírico e, por conseguinte, não empresta nada da Psicologia, que não exerce influência alguma sobre o cânon do entendimento. É uma doutrina demonstrada, e tudo deve ser nela amplamente “a priori”. Uma Lógica geral é&nbsp;<strong>aplicada</strong>, quando se ocupa das regras do uso do entendimento, sob as condições empíricas e subjetivas que nos ensina a psicologia. Esta Lógica tem também princípios empíricos, ainda que seja geral enquanto trata da aplicação do entendimento sem distinção de objetos [2]. Para Kant, é preciso fazer a passagem da lógica geral, para a&nbsp;<strong>transcendental</strong>. A Lógica transcendental está mais relacionado ao entendimento e à organização do pensamento. Esta Lógica investigaria também a origem do nosso conhecimento de objetos, enquanto tal origem não possa ser atribuída aos objetos; a Lógica geral, pelo contrário, não se ocupa com essa origem do conhecimento, e só se limita a examinar as nossas representações sob o ponto de vista das leis com que o entendimento a emprega e reúne entre si, quando pensa. A lógica transcendental isola o entendimento (assim como a estética transcendental isola a sensibilidade). Esse entendimento é formado a partir da&nbsp;<strong>intuição</strong>, que é determinada&nbsp;<em>a priori&nbsp;</em>pelas formas da sensibilidade que são o espaço e o tempo.</p>



<h3>Como máquinas aprendem</h3>



<p>O aprendizado de máquina (<em>machine learning</em>) é um ramo da inteligência artificial onde um sistema é capaz de analisar uma grande quantidade de dados, além de usar uma variedade de algoritmos para encontrar padrões no banco de dados. Com base nesses padrões, são gerados modelos (não explicitamente programados por humanos) que conseguem fazer predições. Modelos gerados por algoritmos de&nbsp;<em>machine learning&nbsp;</em>são científicos, pois precisam representar da maneira mais realista o objeto em estudo, satisfazendo princípios como parcimônia, generalização e capacidade de predição.</p>



<p>Já discutimos que modelos científicos são &#8220;fundamentalmente errados&#8221;. Todos os modelos de&nbsp;<em>machine learning</em>&nbsp;usa esse princípio para otimizar (minimizar) o gap entre a previsão e o valor real. Nenhum algoritmo de&nbsp;<em>machine learning</em>&nbsp;cria um modelo 100% acurado. Tais modelos são construções &#8220;artificiais&#8221; que captura um aspecto do objeto que nos interessa e que geram predições que são úteis na tomada de decisões.</p>



<p>Mas como tais algoritmos aprendem? Pelo que vimos a respeito das teorias do conhecimento, podemos dizer que tais modelos são empiristas, já que tentam induzir um modelo a partir de observações nos dados históricos. Mas a construção de tais modelos é racionalista, um conhecimento sintético a priori, já que são aplicados métodos dedutivos para criar algoritmos empiristas. Como humanos deduzem tais algoritmos? A partir da sensibilidade e intuição, podemos buscar analogias nas criações da natureza, como o cérebro ou a evolução, ou na forma como descrevemos o mundo, a partir de símbolos, ou na maneira em que atualizamos nossas crenças a partir de nossas observações, etc. No livro de Paulo Domingos, &#8220;O Algoritmo Mestre&#8221; [3], são classificados cinco tribos de algoritmos de&nbsp;<em>machine learning</em>:</p>



<p>1)&nbsp;<strong>Conexionistas</strong>: É baseada na simulação de componentes do cérebro e tem como principal algoritmo as redes neurais. Surgiu em 1943, quando McCulloch e Pitts cria o conceito de Percéptron, um neurônio artificial de uma camada. As redes neurais artificiais (ANNs) são compostas por camadas de nós, contendo uma camada de entrada, uma ou mais camadas ocultas e uma camada de saída. Cada nó, ou neurônio artificial, se conecta a outro e tem um peso e limite associados. Se a saída de qualquer nó individual estiver acima do valor limite especificado, esse nó será ativado, enviando dados para a próxima camada da rede. A rede neural aprende ajustando os pesos de conexão dos nós de maneira a minimizar a função de perda (a diferença entre o valor real e previsto), usando uma técnica conhecida como&nbsp;<em>backpropagation,&nbsp;</em>onde os pesos da camada de saída são retro propagados usando a regra da cadeia do cálculo diferencial.</p>



<figure class="wp-block-image"><img src="https://media-exp1.licdn.com/dms/image/C4D12AQFYhj1iNmVUcw/article-inline_image-shrink_1000_1488/0/1617727585967?e=1637798400&amp;v=beta&amp;t=7UoPk5uRtZxRXWuEquS9AR9kAJ7aCFTGUm1LSYsb__U" alt="Não foi fornecido texto alternativo para esta imagem"/></figure>



<p>2)&nbsp;<strong>Simbolistas</strong>: A abordagem baseia-se na suposição de que muitos aspectos da inteligência podem ser alcançados pela manipulação de símbolos, uma suposição definida como a “hipótese dos sistemas de símbolos físicos” por Allen Newell e Herbert&nbsp;Simon em meados dos anos 1960. Os algoritmos de Machine Learning simbólicos são focados no desenvolvimento de sistema de manipulação simbólica e em processos cognitivos. Ou seja, buscam simular a forma com que o ser humano pensa para resolver um determinado problema mas, para isso, é necessário que se entre com as informações sobre o mesmo para que então o algoritmo desenvolva uma forma de resolvê-lo. Um exemplo de algoritmo simbolista é a indução de árvores de decisão, que criam regras automáticas que categorizam as instâncias baseados em suas variáveis. Cada nó na árvore de decisão é uma variável a ser dividida em subnós, e essa estrutura é criada de maneira otimizada de maneira a minimizar a entropia nos nós da folha (<em>leaf nodes</em>) da árvore.</p>



<figure class="wp-block-image"><img src="https://media-exp1.licdn.com/dms/image/C4D12AQHYAb98DciFYw/article-inline_image-shrink_1000_1488/0/1617731217381?e=1637798400&amp;v=beta&amp;t=zd09x5V5MjtOFWXU1Nf5--mepxvsfJqnS4Sc7UIgnNs" alt="Não foi fornecido texto alternativo para esta imagem"/></figure>



<p>3)&nbsp;<strong>Analogistas</strong>; aprendem fazendo extrapolações a partir de julgamentos de semelhança nos dados. Os mais conhecidos são os algoritmos KNN e SVM. O KNN é bem simples: Para classificar uma instância X primeiro você encontra os k pontos mais próximo de X e, a seguir, classifica os pontos pela maioria dos votos de seus k vizinhos. Cada objeto vota em sua classe e a classe com mais votos é considerada a previsão. Para encontrar os pontos semelhantes mais próximos, você encontra a distância entre os pontos usando medidas de distância como distância euclidiana, distância de Hamming, distância de Manhattan e distância de Minkowski.</p>



<figure class="wp-block-image"><img src="https://media-exp1.licdn.com/dms/image/C4D12AQHbqylyge4FjA/article-inline_image-shrink_1000_1488/0/1617729804915?e=1637798400&amp;v=beta&amp;t=JjCLwj0EuOdHNhdP5GyyNbAst9pSaap4UgDBtb2sdGE" alt="Não foi fornecido texto alternativo para esta imagem"/></figure>



<p>O SVM usam máquinas de vetores de suporte para encontrar a melhor maneira de separar os dados. É usado técnicas de otimização matemática para encontrar a encontrar a equação que define o melhor hiperplano, maximizando as distância dos vetores de suporte (margens do hiperplano).</p>



<figure class="wp-block-image"><img src="https://media-exp1.licdn.com/dms/image/C4D12AQFgPsVWupHRJw/article-inline_image-shrink_1000_1488/0/1617729838032?e=1637798400&amp;v=beta&amp;t=dOP0Op5lfhsTh7L9-2-kM-wALC4m0JCgzJl8vlyFURc" alt="Não foi fornecido texto alternativo para esta imagem"/></figure>



<p>4)&nbsp;<strong>Evolucionários</strong>: São algoritmos que abduzem o processo de seleção natural de Darwin e um típico algoritmo funciona seguindo as seguintes etapas:</p>



<ol><li>Initial Population&nbsp;&#8211; É inicializado aleatoriamente um conjunto de indivíduos que formará nossa população. No nosso caso, os indivíduos são os modelos com parâmetros escolhidos aleatoriamente;</li><li>Fitness&nbsp;&#8211; Devemos testar essa população em um ambiente hostil. Somente alguns indivíduos vão sobreviver. Você pode criar um ambiente hostil simplesmente estabelecendo um mínimo para o score do modelo;</li><li>Crossover&nbsp;e&nbsp;Mutation<em>&nbsp;&#8211;&nbsp;</em>Define os critérios para a próxima geração. Na etapa de&nbsp;<em>crossover,&nbsp;</em>os genes (hiperparâmetros) dos pais serão recombinados, para produzir filhos, cada filho herdando alguns genes de cada pai. Para manter a diversidade, adicionamos um pouco de mutação nos filhos;</li><li>Offspring<strong><em>&nbsp;</em></strong><em>&#8211;&nbsp;</em>A próxima geração conterá os pais sobreviventes e os filhos, mantemos os pais sobreviventes para manter os melhores genes, caso o valor dos genes do filho seja pior que os pais. O processo é repetido até que os indivíduos da última geração sejam os mais bem evoluídos.</li></ol>



<figure class="wp-block-image"><img src="https://media-exp1.licdn.com/dms/image/C4D12AQGvARP27t4o5g/article-inline_image-shrink_1000_1488/0/1617727801313?e=1637798400&amp;v=beta&amp;t=Y19S0mjZZP0LsvLIP_oVK72CNirjqKPIOVoX8y46DCg" alt="Não foi fornecido texto alternativo para esta imagem"/></figure>



<p>5)&nbsp;<strong>Bayesianos</strong>: Tem como principal motivador o famoso teorema de bayes. O pensamento Bayesiano fornece uma abordagem probabilística para a aprendizagem e está baseado na suposição de que as quantidades de interesse são reguladas por distribuições de probabilidades. Para um algoritmo bayesiano, &#8220;aprender&#8221; significa atualizar as chances&nbsp;<em>a priori</em>&nbsp;de um evento baseado em novas evidências a posteriori. Por exemplo, usando o teorema de Bayes, podemos encontrar a probabilidade de A acontecer, dado que B ocorreu. Aqui, B é a evidência&nbsp;<em>a posteriori</em>&nbsp;e A é a hipótese&nbsp;<em>a priori</em>. A suposição feita aqui é que os preditores / recursos são independentes. Ou seja, a presença de um determinado recurso não afeta o outro. Por isso que tal algoritmo é chamado de ingênuo (<em>naive bayes</em>).</p>



<figure class="wp-block-image"><img src="https://media-exp1.licdn.com/dms/image/C4D12AQE5et-hQJyYvw/article-inline_image-shrink_1000_1488/0/1617728213300?e=1637798400&amp;v=beta&amp;t=Jq0LB-nwRJH3MxwlHS1g7dhfF5cldxYLFfARFFfCghs" alt="Não foi fornecido texto alternativo para esta imagem"/></figure>



<p>Assim, o&nbsp;<em>machine learning</em>&nbsp;pode ser considerado uma implementação por humanos de técnicas em máquinas para adquirir conhecimento a partir de observações&nbsp;<em>a posteriori</em>. A origem do sucesso do aprendizado de máquina depende de sua capacidade de derivar relações entre fenômenos e potencialmente descobrir o estado oculto (latente) de um sistema (indução), ou seja, potencialmente fornecer um conhecimento verdadeiro intrínseco do sistema. A identificação do sistema e o design baseado no modelo com o auxílio do aprendizado de máquina constituem um primeiro passo para encontrar padrões de um sistema por meio de uma abordagem mista de aprendizagem&nbsp;<em>a priori &#8211; a posteriori</em>, que, retrospectivamente, segue a filosofia de Kant.</p>



<p>Para finalizar, cabe uma última questão. Poderá existir um algoritmo de machine learning que poderá pensar como nós? A reposta iria depender da capacidade de máquinas em poder ter uma estética e lógica transcendental, que a permitam extrair conhecimento a partir da sensibilidade com os objetos ao seu redor iue organizar seus pensamentos com o objetivo de gerar novas deduções lógicas capazes de ampliar o conhecimento científico. O principal problema é o paradoxo que surge ao criar tal máquina. Como faríamos para uma máquina procurar princípios a partir da sensibilidade e intuição do mundo, sem que precisássemos explicitamente introduzir esses princípios em suas mentes?</p>



<p>[1] Silva, M. R. D. (1998). Realismo e anti-realismo na ciência: aspectos introdutórios de uma discussão sobre a natureza das teorias.&nbsp;<em>Ciência &amp; Educação (Bauru)</em>,&nbsp;<em>5</em>(1), 07-13.</p>



<p>[2] Kant, I. (2020).&nbsp;<em>Crítica da razão pura</em>. EDIPRO.</p>



<p>[3] Domingos, P. (2017).&nbsp;<em>O algoritmo mestre: como a busca pelo algoritmo de machine learning definitivo recriará nosso mundo</em>. Novatec Editora.</p>
<p>O post <a rel="nofollow" href="http://estatidados.com.br/o-que-sao-modelos-cientificos-e-como-eles-funcionam/">O que são modelos científicos e como eles funcionam</a> apareceu primeiro em <a rel="nofollow" href="http://estatidados.com.br">Estatidados</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>http://estatidados.com.br/o-que-sao-modelos-cientificos-e-como-eles-funcionam/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Otimizando carteiras de investimentos com Data Science</title>
		<link>http://estatidados.com.br/otimizando-carteiras-de-investimentos-com-data-science/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=otimizando-carteiras-de-investimentos-com-data-science</link>
					<comments>http://estatidados.com.br/otimizando-carteiras-de-investimentos-com-data-science/#respond</comments>
		
		<dc:creator><![CDATA[admin]]></dc:creator>
		<pubDate>Fri, 24 Sep 2021 10:04:42 +0000</pubDate>
				<category><![CDATA[Bruno Borges de Souza]]></category>
		<category><![CDATA[ciencia de dados]]></category>
		<category><![CDATA[Contabilidade e Finanças]]></category>
		<category><![CDATA[Pesquisa Operacional]]></category>
		<guid isPermaLink="false">http://estatidados.com.br/?p=645</guid>

					<description><![CDATA[<p>As decisões financeiras na prática não são tomadas em ambiente de total certeza com relação a seus resultados. Por essas decisões estarem fundamentalmente voltadas para o futuro, é imprescindível que se introduza a variável incerteza (risco) como um dos mais<a class="leiamais" href="http://estatidados.com.br/otimizando-carteiras-de-investimentos-com-data-science/" title="Otimizando carteiras de investimentos com Data Science">...[Continuar lendo]</a></p>
<p>O post <a rel="nofollow" href="http://estatidados.com.br/otimizando-carteiras-de-investimentos-com-data-science/">Otimizando carteiras de investimentos com Data Science</a> apareceu primeiro em <a rel="nofollow" href="http://estatidados.com.br">Estatidados</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>As decisões financeiras na prática não são tomadas em ambiente de total certeza com relação a seus resultados. Por essas decisões estarem fundamentalmente voltadas para o futuro, é imprescindível que se introduza a variável incerteza (risco) como um dos mais significativos aspectos do estudo das finanças corporativas. Saber mensurar corretamente o risco e retorno de um negócio, ou seja, saber exatamente com o que está lidando, é uma das principais habilidades que um empreendedor ou um gestor de fundos precisa ter para obter sucesso.</p>



<p>Como então mensuramos o risco? Primeiro precisamos definir uma medida de risco. De maneira geral, medimos o risco pelo quanto de capital precisamos adicionar à nossa posição de risco para termos uma posição aceitável. Por exemplo, suponha que você tenha 1000 reais para investir no mercado de ações e quer ganhar 1 milhão de reais em três anos. O grau de incerteza de obter esse retorno seria ridiculamente alto, (mas teoricamente seria possível, bastando investir no início do dia, na ação que vai dar maior retorno no final dia, e depois trocando para a ação que vai dar maior retorno no final do dia seguinte, sucessivamente) e deveríamos adicionar um capital bastante expressivo nesse investimento para obtermos uma posição aceitável de risco.</p>



<p>Existe várias maneiras de medir um risco de uma carteira de investimentos. Vamos avaliar neste artigo as três mais importantes: Modelo de&nbsp;<em>Markowitz</em>, Valor em Risco (VaR) e Valor em Risco Condicional (CVaR). Mas antes disso, vamos entender o que é ter uma carteira &#8220;coerente&#8221;. A noção de coerência foi introduzida por&nbsp;<em>Artzner et al</em>&nbsp;e atualmente, é um conceito fundamental relacionado à aceitabilidade de uma medida de risco. A literatura introduz um número de propriedades que são usadas para determinar um medida de risco. As propriedades mais importantes para a medida de risco são</p>



<p><strong><em>1)</em></strong>&nbsp;<strong><em>Invariância à translação:&nbsp;</em></strong>Se adicionarmos ou subtrairmos uma quantidade certa de nossa carteira, a medida de risco aumenta ou diminui. Matematicamente, se&nbsp;<em>A&nbsp;</em>é o quanto queremos adicionar aos ganhos da carteira&nbsp;<em>X</em>&nbsp;e&nbsp;<em>p</em>&nbsp;a nossa medida de risco, então&nbsp;<em>p(X+A)=p(X)+A</em>. Veja que, se trocarmos instrumentos de renda varável e alocarmos em renda fixa (nessa caso,&nbsp;<em>A</em>&nbsp;é negativo) a carteira diminui o risco no mesmo montante.</p>



<p><strong><em>2) Subaditividade:</em></strong>&nbsp;Na minha opinião, é a propriedade mais importante ao se avaliar uma medida de risco. Esta medida é intimamente relacionada com o efeito da diversificação do portfólio. A medida do risco total da carteira (conjunto de ativos) é menor ou igual que a medida do risco da soma individual dos ativos da carteira (<em>p(X1)+p(X2)&lt;p(X1+X2)</em>). É o princípio da Teoria Moderno do Portfólio, do grande Markowitz.&nbsp;O<strong>&nbsp;VaR</strong>&nbsp;<strong>falha na subaditivade</strong>. Isso significa que, minimizar o VaR não garante que você vá diversificar os investimentos da carteira considerada.</p>



<p><strong><em>3) Monotonicidade:&nbsp;</em></strong>&nbsp;Se os ganhos na carteira&nbsp;<em>X</em>&nbsp;são menores que os da carteira&nbsp;<em>Y</em>&nbsp;para todos os cenários possíveis, então o risco na carteira&nbsp;<em>X</em>&nbsp;é menor que na carteira&nbsp;<em>Y</em>&nbsp;(Se&nbsp;<em>X1&lt;X2</em>, então&nbsp;<em>p(X1)&lt;p(X2))</em>. Claro, num portfólio devidamente otimizado, se você quiser arriscar mais, espera que sua possibilidade de ganho seja maior.&nbsp;<strong><em>Markowitz</em>&nbsp;falha na monotonicidade :(.</strong></p>



<p><strong><em>4) Homogeneidade Positiva:&nbsp;</em></strong>Ao aumentar o tamanho de cada posição da carteira o risco da carteira aumenta em igual proporção&nbsp;(<em>p(bX)=bp(X))</em>, sendo&nbsp;<em>b</em>&nbsp;uma constante). Isso significa que, se você trocar a moeda de uma carteira, ou dobrar seu investimento em cada ação, seu risco aumentará na mesma proporção. Se você aposta 100 reais num jogo de poker e depois triplica a aposta, seu risco triplica também, pois você pode perder (ou ganhar) três vezes mais do que antes.</p>



<p>Pronto, agora vamos entender essas três medidas de risco que comentei anteriormente.</p>



<h3>Markowitz, VaR e CVaR. O que são?</h3>



<p>São basicamente medidas de riscos, meios de quantificar o risco do investimento. Minimizar essas medidas significa escolher um conjunto de ativos e juntá-los com uma certa proporção específica, de tal forma que a carteira tenha o menor risco possível para um determinado retorno esperado. Vejamos cada uma delas:</p>



<p><strong>Markowitz</strong></p>



<p>Até a década de 50, os modelos para risco e retorno eram em grande parte subjetivos e variavam de investidor para investidor. A partir do desenvolvimento da moderna teoria do portfólio por pesquisadores como&nbsp;<em>Markowitz, Sharp, Black, Scholes</em>&nbsp;entres outros, foi desenvolvido um arcabouço teórico quantitativo com base na teoria econômica neoclássica. O desenvolvimento da teoria do portfólio em 1952 por&nbsp;<em>Markowitz</em>, revolucionou o estudo das finanças, fato que lhe rendeu o prêmio Nobel de economia em 1990.</p>



<p>O principal aspecto da teoria do portfólio é que o risco individual de um ativo é diferente de seu risco na carteira, tornando a diversificação capaz de minimizar o risco não-sistemático dos ativos em conjunto. Com a minimização, é possível escolher a proporção ideal de cada ativo no portfólio, otimizando a relação retorno/risco da carteira de títulos. A figura abaixo representa bem essa ideia: Para mais de 30 ativos, é possível mitigar praticamente todo o risco não-sistemático da carteira. O resto é risco de mercado, crédito, liquidez ou operacional.</p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" width="1024" height="646" src="http://estatidados.com.br/wp-content/uploads/2022/02/image-1024x646.png" alt="" class="wp-image-662" srcset="http://estatidados.com.br/wp-content/uploads/2022/02/image-1024x646.png 1024w, http://estatidados.com.br/wp-content/uploads/2022/02/image-300x189.png 300w, http://estatidados.com.br/wp-content/uploads/2022/02/image-768x485.png 768w, http://estatidados.com.br/wp-content/uploads/2022/02/image-200x126.png 200w, http://estatidados.com.br/wp-content/uploads/2022/02/image-396x250.png 396w, http://estatidados.com.br/wp-content/uploads/2022/02/image-400x252.png 400w, http://estatidados.com.br/wp-content/uploads/2022/02/image-1000x631.png 1000w, http://estatidados.com.br/wp-content/uploads/2022/02/image-753x475.png 753w, http://estatidados.com.br/wp-content/uploads/2022/02/image.png 1090w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure></div>



<p>Como exatamente é feita essa diversificação? Suponha duas empresas diretamente concorrentes,&nbsp;<em>A</em>&nbsp;e&nbsp;<em>B</em>, num mercado promissor. Há três possibilidades: A empresa&nbsp;<em>A</em>&nbsp;vence a competição,&nbsp;<em>B</em>&nbsp;vence ou as duas compartilham o mercado. Se você investiu seu dinheiro em uma delas você corre o risco de perder tudo caso a empresa desmorone. Investindo nas duas fará com que você reduza esse risco, pois uma parte certamente vai para a empresa vencedora. E caso as duas percam? Nesse caso, pode ter sido causado por algum fator externo que afetou o mercado, como a pandemia, por exemplo. O modelos de otimização de risco tenta minimizar o risco não-sistemático, via diversificação dos ativos. O risco sistemático não pode ser minimizado.</p>



<p>Como já comentei, essa medida não é coerente, pois não satisfaz a monotonicidade. Outra coisa é que o modelo CAPM (<em>Capital Asset Pricing Models</em>), muito conhecido no mercado financeiro, é uma simplificação da Teoria de&nbsp;<em>Markowitz</em>&nbsp;para tentar reduzir a complexidade computacional do método.</p>



<p><strong>Valor em Risco e Valor em Risco Condicional</strong></p>



<p>Aqui a ideia é entender o risco como o quanto você aceita perder. Muito simples não? Suponha que você vai fazer um investimento de 1000 reais. Seu gerente lhe diz que na carteira&nbsp;<em>X</em>&nbsp;você pode ter um retorno de 300% no ano e que você pode perder no máximo R$ 900 com chance de 5%. O VaR é a perda máxima esperada (não confundir com a perda máxima possível), os R$900,00, e o alfa do VaR é a chance de você perder mais que isso (no exemplo 5%). Minimizar o VaR significa escolher o melhor conjunto de ativos que, com um mesmo retorno, diminua essa perda máxima esperada.</p>



<p>Como já mencionei, o VaR falha na subaditividade. E pior, falha numa propriedade que o pessoal da otimização adora (eu também!), a convexidade. Felizmente, temos uma medida que, além de ser convexa, é coerente. O Valor em risco condicional (CVaR) examina as perdas que excedem o limite do Valor em Risco (VaR). No exemplo que demos da carteira <em>X</em>, isso significa analisar as perdas para 5%, 4%,&#8230; de chance e tirar uma média disso. O VaR e o CVaR estão intimamente relacionados e, ao minimizar o CVaR, também levará a uma redução do VaR da carteira. A figura abaixo expressa uma curva normal com as perdas esperadas do Var e CVaR e as probabilidades esperadas.</p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" width="1024" height="752" src="http://estatidados.com.br/wp-content/uploads/2022/02/image-1-1024x752.png" alt="" class="wp-image-664" srcset="http://estatidados.com.br/wp-content/uploads/2022/02/image-1-1024x752.png 1024w, http://estatidados.com.br/wp-content/uploads/2022/02/image-1-300x220.png 300w, http://estatidados.com.br/wp-content/uploads/2022/02/image-1-768x564.png 768w, http://estatidados.com.br/wp-content/uploads/2022/02/image-1-200x147.png 200w, http://estatidados.com.br/wp-content/uploads/2022/02/image-1-340x250.png 340w, http://estatidados.com.br/wp-content/uploads/2022/02/image-1-400x294.png 400w, http://estatidados.com.br/wp-content/uploads/2022/02/image-1-1000x735.png 1000w, http://estatidados.com.br/wp-content/uploads/2022/02/image-1-646x475.png 646w, http://estatidados.com.br/wp-content/uploads/2022/02/image-1.png 1090w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure></div>



<p>Resumindo de maneira matemática o que explicamos:</p>



<ol><li>O VaR tenta resumir em um único número, a perda máxima esperada dentro de um certo prazo com um certo grau de confiança estatística<br></li></ol>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" width="1024" height="60" src="http://estatidados.com.br/wp-content/uploads/2022/02/image-2-1024x60.png" alt="" class="wp-image-666" srcset="http://estatidados.com.br/wp-content/uploads/2022/02/image-2-1024x60.png 1024w, http://estatidados.com.br/wp-content/uploads/2022/02/image-2-300x18.png 300w, http://estatidados.com.br/wp-content/uploads/2022/02/image-2-768x45.png 768w, http://estatidados.com.br/wp-content/uploads/2022/02/image-2-200x12.png 200w, http://estatidados.com.br/wp-content/uploads/2022/02/image-2-400x23.png 400w, http://estatidados.com.br/wp-content/uploads/2022/02/image-2-1000x59.png 1000w, http://estatidados.com.br/wp-content/uploads/2022/02/image-2.png 1090w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure></div>



<p>2. O CVaR pode ser definido como a esperança condicional de perdas das carteiras superiores ao VaR:<br></p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" width="1024" height="252" src="http://estatidados.com.br/wp-content/uploads/2022/02/image-3-1024x252.png" alt="" class="wp-image-667" srcset="http://estatidados.com.br/wp-content/uploads/2022/02/image-3-1024x252.png 1024w, http://estatidados.com.br/wp-content/uploads/2022/02/image-3-300x74.png 300w, http://estatidados.com.br/wp-content/uploads/2022/02/image-3-768x189.png 768w, http://estatidados.com.br/wp-content/uploads/2022/02/image-3-200x49.png 200w, http://estatidados.com.br/wp-content/uploads/2022/02/image-3-400x98.png 400w, http://estatidados.com.br/wp-content/uploads/2022/02/image-3-1000x246.png 1000w, http://estatidados.com.br/wp-content/uploads/2022/02/image-3.png 1090w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure></div>



<h3>O problema de otimização</h3>



<p>Resolver um problema de otimização é buscar a melhor utilização de recursos e processos (técnico, econômico, social ou político), através de aplicação de modelos matemáticos, visando otimizar a satisfação (utilidade) do usuário. Compreende o problema de alocar recursos escassos para realização de atividades e cita alguns exemplos de técnicas particulares da otimização:</p>



<ol><li><strong>Programação Linear</strong>: aplicada em áreas relativas à alocação de pessoal, mistura de materiais, distribuição, transporte, etc.;</li><li><strong>Programação Dinâmica</strong>: utilizada principalmente para problemas de otimização combinatória, tem aplicações em a áreas como planejamento de despesas de publicidade, distribuição do esforço de vendas e programação de produção;</li><li><strong>Teoria das Filas</strong>: área que estuda analisar a formação de filas, é aplicada na solução de problemas relativos a congestionamento de tráfego, máquinas de serviços sujeitas à quebra, determinação do nível de uma força de serviço, etc.;</li><li><strong>Programação Não Linear</strong>: é um modelo matemático onde a função objetivo, as restrições ou ambas, apresentam não linearidade em seus coeficientes.</li></ol>



<p>Na área de investimentos, é utilizado métodos de programação linear ou não-linear para maximizar ou minimizar a função objetivo. Um modelo de otimização para investimentos envolve os seguintes conceitos:</p>



<ol><li><strong>Função objetivo</strong>: Representa o principal objetivo do tomador de decisão. No modelo de VaR é dada pela minimização da perda máxima esperada ou maximização do retorno da carteira. É uma função multi-objetivo, então a solução é uma curva, a fronteira eficiente, com a perda mínima para cada retorno.</li><li><strong>Restrições</strong>: Diz o que é possível ou não fazer e quais são as limitações dos recursos ou atividades que estão associados ao modelo. No modelo em questão, as limitações são: a participação dos ativos precisa ser maior que zero, a soma de as participações deve ser igual a 1, e colocar um retorno mínimo exigido pelo cliente, ou um risco máximo, dependendo do objetivo do investido.</li><li><strong>Variáveis de decisão</strong>: variáveis que podem ser controladas pelo tomador de decisão. No modelo correspondem à participação ao peso de cada ativo no portfólio.</li></ol>



<p>Vejamos o modelo para o problema de minimização do CVaR. A partir de uma série da manipulações matemáticas, Rockafellar e Uryasev (2000) reescreve o cálculo do CVaR em termos de uma função, dada por<br></p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" width="1024" height="128" src="http://estatidados.com.br/wp-content/uploads/2022/02/image-4-1024x128.png" alt="" class="wp-image-668" srcset="http://estatidados.com.br/wp-content/uploads/2022/02/image-4-1024x128.png 1024w, http://estatidados.com.br/wp-content/uploads/2022/02/image-4-300x37.png 300w, http://estatidados.com.br/wp-content/uploads/2022/02/image-4-768x96.png 768w, http://estatidados.com.br/wp-content/uploads/2022/02/image-4-200x25.png 200w, http://estatidados.com.br/wp-content/uploads/2022/02/image-4-400x50.png 400w, http://estatidados.com.br/wp-content/uploads/2022/02/image-4-1000x125.png 1000w, http://estatidados.com.br/wp-content/uploads/2022/02/image-4.png 1090w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure></div>



<p>Para o caso de valores discretos, a equação acima pode ser reescrita como:<br></p>



<div class="wp-block-image"><figure class="aligncenter size-full"><img loading="lazy" width="708" height="149" src="http://estatidados.com.br/wp-content/uploads/2022/02/image-5.png" alt="" class="wp-image-669" srcset="http://estatidados.com.br/wp-content/uploads/2022/02/image-5.png 708w, http://estatidados.com.br/wp-content/uploads/2022/02/image-5-300x63.png 300w, http://estatidados.com.br/wp-content/uploads/2022/02/image-5-200x42.png 200w, http://estatidados.com.br/wp-content/uploads/2022/02/image-5-400x84.png 400w" sizes="(max-width: 708px) 100vw, 708px" /></figure></div>



<p>Dessa maneira, Rockafellar e Uryasev (2000) usa a função F linear para definir a forma para a otimização de uma carteira de ações utilizando o CVaR como medida de risco:<br></p>



<div class="wp-block-image"><figure class="aligncenter size-full"><img loading="lazy" width="996" height="449" src="http://estatidados.com.br/wp-content/uploads/2022/02/image-6.png" alt="" class="wp-image-670" srcset="http://estatidados.com.br/wp-content/uploads/2022/02/image-6.png 996w, http://estatidados.com.br/wp-content/uploads/2022/02/image-6-300x135.png 300w, http://estatidados.com.br/wp-content/uploads/2022/02/image-6-768x346.png 768w, http://estatidados.com.br/wp-content/uploads/2022/02/image-6-200x90.png 200w, http://estatidados.com.br/wp-content/uploads/2022/02/image-6-400x180.png 400w" sizes="(max-width: 996px) 100vw, 996px" /></figure></div>



<p>onde&nbsp;<em>n</em>&nbsp;é o tamanho da amostra e&nbsp;<em>w_i</em>&nbsp;a proporção de cada ativo na carteira.</p>



<h3>Resultados na Prática</h3>



<p>Vamos avaliar o modelo para otimização do VaR e CVaR utilizando 30 ações da bolsa de valores do Brasil. Utilizaremos como histórico o retorno das ações desde o começo da pandemia (para evitar envasamento histórico de análise, já que a pandemia alterou a dinâmica do mercado de ações).<br></p>



<figure class="wp-block-image"><img/></figure>



<p>Agora, utilizando a biblioteca de otimização scipy do python, conjuntamente com bibliotecas que fazem interpretações das integrais, traduzimos a função objetivo e as restrições para o código e, usando como técnica de otimização linear o simplex revisado, construímos a fronteira fronteira eficiente para o VaR e CVaR.</p>



<p>Os gráficos abaixo expressam o retorno para cada valor em risco considerado. Devido ao fato da otimização do VaR não ser convexa, a fronteira eficiente da otimização com o VaR tem um comportamento mais &#8220;caótico&#8221; comparada à otimização com o CVaR, que tem um comportamento mais suave.</p>



<figure class="wp-block-image"><img/></figure>



<p>O CVaR varia de 10% a 30% com retorno de 6% a 16 % do valor investido. Essa abordagem também levou a uma redução no VaR, uma vez que é um fator envolvido no processo de minimização do CVaR. Vale lembra que o CVaR é uma medida mais conservadora, o que explica um risco maior do CVaR, dado o mesmo retorno, que o VaR.</p>



<figure class="wp-block-image size-large"><img loading="lazy" width="1024" height="528" src="http://estatidados.com.br/wp-content/uploads/2022/02/image-7-1024x528.png" alt="" class="wp-image-672" srcset="http://estatidados.com.br/wp-content/uploads/2022/02/image-7-1024x528.png 1024w, http://estatidados.com.br/wp-content/uploads/2022/02/image-7-300x155.png 300w, http://estatidados.com.br/wp-content/uploads/2022/02/image-7-768x396.png 768w, http://estatidados.com.br/wp-content/uploads/2022/02/image-7-200x103.png 200w, http://estatidados.com.br/wp-content/uploads/2022/02/image-7-400x206.png 400w, http://estatidados.com.br/wp-content/uploads/2022/02/image-7-1000x516.png 1000w, http://estatidados.com.br/wp-content/uploads/2022/02/image-7-921x475.png 921w, http://estatidados.com.br/wp-content/uploads/2022/02/image-7.png 1090w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<p>O gráfico de área abaixo expressa a proporção de ativos na carteira para cada valor em risco considerado.</p>



<figure class="wp-block-image size-large"><img loading="lazy" width="1024" height="492" src="http://estatidados.com.br/wp-content/uploads/2022/02/image-8-1024x492.png" alt="" class="wp-image-674" srcset="http://estatidados.com.br/wp-content/uploads/2022/02/image-8-1024x492.png 1024w, http://estatidados.com.br/wp-content/uploads/2022/02/image-8-300x144.png 300w, http://estatidados.com.br/wp-content/uploads/2022/02/image-8-768x369.png 768w, http://estatidados.com.br/wp-content/uploads/2022/02/image-8-200x96.png 200w, http://estatidados.com.br/wp-content/uploads/2022/02/image-8-400x192.png 400w, http://estatidados.com.br/wp-content/uploads/2022/02/image-8-1000x481.png 1000w, http://estatidados.com.br/wp-content/uploads/2022/02/image-8-988x475.png 988w, http://estatidados.com.br/wp-content/uploads/2022/02/image-8.png 1090w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<p>O resultado final é, para um dado valor em risco, as ações que devo investir e em qual proporção, para o meu portfólio ótimo. Exemplo, caso eu queira assumir um CVar de 20%, o conjunto de ativos que me trariam o melhor retorno seria:</p>



<p>Trans Paulista (<strong>TRPL4</strong>) &#8211; 82%, Suzano Papel (<strong>SUZB3</strong>) &#8211; 13%, Bradespar (<strong>BRAP4</strong>) &#8211; 3%,</p>



<p>Itausa (<strong>ITSA4</strong>) &#8211; 2%.</p>



<figure class="wp-block-image size-large"><img loading="lazy" width="1024" height="551" src="http://estatidados.com.br/wp-content/uploads/2022/02/image-9-1024x551.png" alt="" class="wp-image-675" srcset="http://estatidados.com.br/wp-content/uploads/2022/02/image-9-1024x551.png 1024w, http://estatidados.com.br/wp-content/uploads/2022/02/image-9-300x162.png 300w, http://estatidados.com.br/wp-content/uploads/2022/02/image-9-768x414.png 768w, http://estatidados.com.br/wp-content/uploads/2022/02/image-9-200x108.png 200w, http://estatidados.com.br/wp-content/uploads/2022/02/image-9-400x215.png 400w, http://estatidados.com.br/wp-content/uploads/2022/02/image-9-1000x539.png 1000w, http://estatidados.com.br/wp-content/uploads/2022/02/image-9-882x475.png 882w, http://estatidados.com.br/wp-content/uploads/2022/02/image-9.png 1090w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<p><strong>Backtest</strong></p>



<p>Para validarmos o modelo, é importante fazer uma análise de backtest. O objetivo do backtest é analisar quais seriam os resultados de um carteira ótima criada num período anterior ao atual, verificando a evolução do retorno da carteira desde o instante em que ela foi criada, até o instante atual.</p>



<figure class="wp-block-image size-large"><img loading="lazy" width="1024" height="477" src="http://estatidados.com.br/wp-content/uploads/2022/02/image-10-1024x477.png" alt="" class="wp-image-676" srcset="http://estatidados.com.br/wp-content/uploads/2022/02/image-10-1024x477.png 1024w, http://estatidados.com.br/wp-content/uploads/2022/02/image-10-300x140.png 300w, http://estatidados.com.br/wp-content/uploads/2022/02/image-10-768x358.png 768w, http://estatidados.com.br/wp-content/uploads/2022/02/image-10-200x93.png 200w, http://estatidados.com.br/wp-content/uploads/2022/02/image-10-400x186.png 400w, http://estatidados.com.br/wp-content/uploads/2022/02/image-10-1000x466.png 1000w, http://estatidados.com.br/wp-content/uploads/2022/02/image-10-1019x475.png 1019w, http://estatidados.com.br/wp-content/uploads/2022/02/image-10.png 1090w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<p>Analisando a evolução do retorno para 5 níveis de risco diferentes, podemos notar o seguinte:</p>



<ol><li>Quanto maior o risco, mais volátil será a carteira;</li><li>Em nenhum dos casos a perda ultrapassou a perda máxima esperada. Exemplo, para um CVaR de 20%, o ponto mínimo foi de 4600 (8% de perda);</li><li>Para esse caso em particular, o CVaR de 25% acabou perfomando melhor, inclusive gerando um retorno de 6,72% durante o período avaliado (dentro do esperado ao verificar a fronteira eficiente).<br></li></ol>



<figure class="wp-block-image size-large"><img loading="lazy" width="1024" height="192" src="http://estatidados.com.br/wp-content/uploads/2022/02/image-11-1024x192.png" alt="" class="wp-image-677" srcset="http://estatidados.com.br/wp-content/uploads/2022/02/image-11-1024x192.png 1024w, http://estatidados.com.br/wp-content/uploads/2022/02/image-11-300x56.png 300w, http://estatidados.com.br/wp-content/uploads/2022/02/image-11-768x144.png 768w, http://estatidados.com.br/wp-content/uploads/2022/02/image-11-200x37.png 200w, http://estatidados.com.br/wp-content/uploads/2022/02/image-11-400x75.png 400w, http://estatidados.com.br/wp-content/uploads/2022/02/image-11-1000x187.png 1000w, http://estatidados.com.br/wp-content/uploads/2022/02/image-11.png 1090w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<h3>Bônus: Minimizando medidas de risco usando a Teoria da Evolução</h3>



<p>O que a Teoria da Evolução tem a ver com tudo isso que fizemos? Bom, se você entendeu a matemática da função objetivo, sabe que essas fórmulas do VaR e CVaR são bastante &#8220;cabeludas&#8221;. Existem algoritmos de otimização específicos para cada um dos problemas (programação linear para o CVaR, programação quadrática para Markowitz e algum método de otimização não-convexa para o VaR), mas não que minimiza os três com o mesmo método. Para minimizar o risco das três carteiras que estudamos, podemos usar um algoritmo genético da inteligência artificial que é baseado na Teoria de Darwin, o&nbsp;<em>Differential Evolution (DE).&nbsp;</em>O DE tem se apresentado como um simples, mas poderoso algoritmo de otimização numérica para busca da solução ótima global, sendo aplicado com sucesso na solução de vários problemas de otimização complexa.</p>



<p>Para otimizar um portfólio utilizando o algoritmo DE, melhoramos iterativamente uma solução candidata de uma população gerada de carteiras,&nbsp;<em>c1,&#8230;,c𝑖, 𝑖 = 1,…, n</em>&nbsp;onde cada carteira contém&nbsp;<em>N</em>&nbsp;elementos e representa as variáveis objetivas, ou seja, os retornos históricos dos ativos do portfólio. A DE visa otimizar o trade-off entre risco e retorno, em vez de minimizar o risco de um determinado retorno específico, ou seja, teremos uma avaliação de retorno para diversos riscos possíveis. Isso é o que chamamos de&nbsp;<strong>fronteira eficiente da carteira</strong>.</p>



<p>A ideia básica do DE é produzir uma nova solução para cada carteira atual, onde a nova solução é uma combinação de quatro soluções atuais na população. Funciona da seguinte maneira:</p>



<p>1) Selecione uma carteira (<em>c0</em>) da população atual, que será nossa carteira-pai. Em seguida, selecione aleatoriamente três carteiras diferentes, usando um deles como uma carteira-base e adicione a diferença ponderada das outras duas para construir uma nova solução,</p>



<p><em>cm=c1+F*(c2-c3),</em></p>



<p>onde 𝐹 é um fator de mutação entre 0 e 1 que controla a taxa na qual a população de carteiras evolui. A solução dessa fórmula,&nbsp;<em>cm</em>, será nossa carteira-mutante.</p>



<p>2) Agora, realizamos um cruzamento entre a carteira-pai e a carteira-mutante. Cada elemento na carteira-filha será determinado por uma taxa de <em>crossover (CR &#8211; razão de cruzamento)</em> definida pelo usuário, onde 𝐶𝑅 está entre 0 e 1, e um número gerado pseudo-aleatório ε. O cruzamento controla a fração de valores de parâmetros copiados da carteira-mutante, de modo que, se o número gerado for menor que a razão de cruzamento, a carteira-filho herdará o elemento 𝑗 da carteira-pai. Da mesma forma, se o número gerado for maior ou igual à razão de cruzamento, a carteira-filho herdará o elemento 𝑗 da carteira-mutante. A figura abaixo dá a visualização gráfico disso:<br></p>



<figure class="wp-block-image size-large"><img loading="lazy" width="1024" height="750" src="http://estatidados.com.br/wp-content/uploads/2022/02/image-12-1024x750.png" alt="" class="wp-image-679" srcset="http://estatidados.com.br/wp-content/uploads/2022/02/image-12-1024x750.png 1024w, http://estatidados.com.br/wp-content/uploads/2022/02/image-12-300x220.png 300w, http://estatidados.com.br/wp-content/uploads/2022/02/image-12-768x562.png 768w, http://estatidados.com.br/wp-content/uploads/2022/02/image-12-200x146.png 200w, http://estatidados.com.br/wp-content/uploads/2022/02/image-12-341x250.png 341w, http://estatidados.com.br/wp-content/uploads/2022/02/image-12-400x293.png 400w, http://estatidados.com.br/wp-content/uploads/2022/02/image-12-1000x732.png 1000w, http://estatidados.com.br/wp-content/uploads/2022/02/image-12-649x475.png 649w, http://estatidados.com.br/wp-content/uploads/2022/02/image-12.png 1090w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<p>3) Há ainda algumas medidas para evitar que os ativos saiam do espaço viável de soluções, pois não podemos ter carteiras com ativos que, somados, dão pesos maiores que 100%. Para resolver isso, lembre-se de normalizar todas as carteiras de sua população.</p>



<p><strong>Hora da prática</strong></p>



<p>Apresentamos aqui a escolha de parâmetros para o algoritmo DE e comparamos seus resultados com outras técnicas de otimização. Consideramos uma carteira composta apenas por ações e assumimos que os retornos diários dos registros são normalmente distribuídos. Com relação aos dados, vamos utilizar 25 ações da BM&amp;Fbovespa, usando cotações históricas diárias de 5 anos. Além disso, vamos assumir que há 252 dias de negociação por ano e, assim, escalaremos os retornos proporcionalmente ao tempo. Para a programação dos algoritmos, eu utilizei o software Matlab.</p>



<p>Primeiro veremos a medida de Markowitz. Para o caso da volatilidade, na figura abaixo fizemos uma comparação entre o método de otimização quadrática e a evolução diferencial, com parâmetros N = 25, F = 0,5, CR = 0,7 e ε = 1%. A fronteira da carteira indica o quanto de risco você você assume para cada retorno esperado. Podemos ver que o retorno esperado ideal sobre o investimento varia de 16% a 35%, e a volatilidade de 13% a 22%, ou seja, a tendência de movimento da carteira. Além disso, ao analisar os retornos e riscos dos ativos individualmente, vemos que a diversificação representa um risco menor e, ao mesmo tempo, produz um retorno maior, onde cada portfólio ideal fica ao longo da fronteira eficiente.</p>



<figure class="wp-block-image size-large"><img loading="lazy" width="1024" height="754" src="http://estatidados.com.br/wp-content/uploads/2022/02/image-13-1024x754.png" alt="" class="wp-image-680" srcset="http://estatidados.com.br/wp-content/uploads/2022/02/image-13-1024x754.png 1024w, http://estatidados.com.br/wp-content/uploads/2022/02/image-13-300x221.png 300w, http://estatidados.com.br/wp-content/uploads/2022/02/image-13-768x566.png 768w, http://estatidados.com.br/wp-content/uploads/2022/02/image-13-200x147.png 200w, http://estatidados.com.br/wp-content/uploads/2022/02/image-13-339x250.png 339w, http://estatidados.com.br/wp-content/uploads/2022/02/image-13-400x295.png 400w, http://estatidados.com.br/wp-content/uploads/2022/02/image-13-1000x737.png 1000w, http://estatidados.com.br/wp-content/uploads/2022/02/image-13-645x475.png 645w, http://estatidados.com.br/wp-content/uploads/2022/02/image-13.png 1090w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<p>Para mostrar que o DE pode lidar com qualquer medida de risco, usamos a abordagem de R. T Rockafellar e S. Uryasev para minimizar o CVaR comparando as soluções do algoritmo DE com o de programação linear. Usamos aqui a mesma suposição do último caso e aproximamos os retornos. Em seguida, vamos otimizar o CVaR usando os mesmos parâmetros de antes. Esses valores foram escolhidos pois são que oferecem melhor acurácia em um tempo admissível (Dependendo dos parâmetros que você escolhe, pode ficar até dias esperando sua carteira &#8220;evoluir&#8221;). Temos então a seguinte fronteira:</p>



<figure class="wp-block-image size-large"><img loading="lazy" width="1024" height="693" src="http://estatidados.com.br/wp-content/uploads/2022/02/image-14-1024x693.png" alt="" class="wp-image-682" srcset="http://estatidados.com.br/wp-content/uploads/2022/02/image-14-1024x693.png 1024w, http://estatidados.com.br/wp-content/uploads/2022/02/image-14-300x203.png 300w, http://estatidados.com.br/wp-content/uploads/2022/02/image-14-768x520.png 768w, http://estatidados.com.br/wp-content/uploads/2022/02/image-14-200x135.png 200w, http://estatidados.com.br/wp-content/uploads/2022/02/image-14-369x250.png 369w, http://estatidados.com.br/wp-content/uploads/2022/02/image-14-400x271.png 400w, http://estatidados.com.br/wp-content/uploads/2022/02/image-14-1000x677.png 1000w, http://estatidados.com.br/wp-content/uploads/2022/02/image-14-702x475.png 702w, http://estatidados.com.br/wp-content/uploads/2022/02/image-14.png 1090w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<p>O CVaR varia de 30 % a 100 % do valor investido, que é a proporção média de um capital de investidores que será perdido para o nível de probabilidade de perda de 5%. Essa abordagem também levou a uma redução no VaR, uma vez que é um fator envolvido no processo de minimização do CVaR. Para o VaR, na figura abaixo, vemos que o valor varia de 22% a 70%. De qualquer forma, vemos que o DE está na fronteira eficiente e podemos confirmar que as soluções são as mesmas para os métodos específicos de cada método, investigando novamente a distribuição do peso do portfólio.<br></p>



<figure class="wp-block-image size-large"><img loading="lazy" width="1024" height="717" src="http://estatidados.com.br/wp-content/uploads/2022/02/image-15-1024x717.png" alt="" class="wp-image-683" srcset="http://estatidados.com.br/wp-content/uploads/2022/02/image-15-1024x717.png 1024w, http://estatidados.com.br/wp-content/uploads/2022/02/image-15-300x210.png 300w, http://estatidados.com.br/wp-content/uploads/2022/02/image-15-768x538.png 768w, http://estatidados.com.br/wp-content/uploads/2022/02/image-15-200x140.png 200w, http://estatidados.com.br/wp-content/uploads/2022/02/image-15-357x250.png 357w, http://estatidados.com.br/wp-content/uploads/2022/02/image-15-400x280.png 400w, http://estatidados.com.br/wp-content/uploads/2022/02/image-15-1000x700.png 1000w, http://estatidados.com.br/wp-content/uploads/2022/02/image-15-679x475.png 679w, http://estatidados.com.br/wp-content/uploads/2022/02/image-15.png 1090w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<p>Percebeu que a fronteira do VaR é um pouco &#8220;deformada&#8221;? Isso é justamente devido ao fato de não termos aqui aquela propriedade da convexidade envolvida.</p>



<p>Bom, agora vamos para o que importa. Quais os ativos e quanto investir em cada um para formar uma carteira eficiente evoluída? vEis os resultados de acordo com Markowitz e o CVaR:<br></p>



<figure class="wp-block-image size-large"><img loading="lazy" width="1024" height="762" src="http://estatidados.com.br/wp-content/uploads/2022/02/image-16-1024x762.png" alt="" class="wp-image-684" srcset="http://estatidados.com.br/wp-content/uploads/2022/02/image-16-1024x762.png 1024w, http://estatidados.com.br/wp-content/uploads/2022/02/image-16-300x223.png 300w, http://estatidados.com.br/wp-content/uploads/2022/02/image-16-768x571.png 768w, http://estatidados.com.br/wp-content/uploads/2022/02/image-16-200x149.png 200w, http://estatidados.com.br/wp-content/uploads/2022/02/image-16-336x250.png 336w, http://estatidados.com.br/wp-content/uploads/2022/02/image-16-400x298.png 400w, http://estatidados.com.br/wp-content/uploads/2022/02/image-16-1000x744.png 1000w, http://estatidados.com.br/wp-content/uploads/2022/02/image-16-638x475.png 638w, http://estatidados.com.br/wp-content/uploads/2022/02/image-16.png 1090w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<figure class="wp-block-image size-large"><img loading="lazy" width="1024" height="722" src="http://estatidados.com.br/wp-content/uploads/2022/02/image-17-1024x722.png" alt="" class="wp-image-685" srcset="http://estatidados.com.br/wp-content/uploads/2022/02/image-17-1024x722.png 1024w, http://estatidados.com.br/wp-content/uploads/2022/02/image-17-300x212.png 300w, http://estatidados.com.br/wp-content/uploads/2022/02/image-17-768x542.png 768w, http://estatidados.com.br/wp-content/uploads/2022/02/image-17-200x141.png 200w, http://estatidados.com.br/wp-content/uploads/2022/02/image-17-354x250.png 354w, http://estatidados.com.br/wp-content/uploads/2022/02/image-17-400x282.png 400w, http://estatidados.com.br/wp-content/uploads/2022/02/image-17-1000x706.png 1000w, http://estatidados.com.br/wp-content/uploads/2022/02/image-17-673x475.png 673w, http://estatidados.com.br/wp-content/uploads/2022/02/image-17.png 1090w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<figure class="wp-block-image size-large"><img loading="lazy" width="1024" height="198" src="http://estatidados.com.br/wp-content/uploads/2022/02/image-18-1024x198.png" alt="" class="wp-image-686" srcset="http://estatidados.com.br/wp-content/uploads/2022/02/image-18-1024x198.png 1024w, http://estatidados.com.br/wp-content/uploads/2022/02/image-18-300x58.png 300w, http://estatidados.com.br/wp-content/uploads/2022/02/image-18-768x149.png 768w, http://estatidados.com.br/wp-content/uploads/2022/02/image-18-200x39.png 200w, http://estatidados.com.br/wp-content/uploads/2022/02/image-18-400x77.png 400w, http://estatidados.com.br/wp-content/uploads/2022/02/image-18-1000x194.png 1000w, http://estatidados.com.br/wp-content/uploads/2022/02/image-18.png 1090w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<p>Nesses gráficos, para cada Volatilidade (Risco) e CVaR, temos uma proporção de ativos diferentes. Por exemplo, para termos um CVaR de 65%, temos que investir 27% na ITUB4 28% na EMBR3 e 45% na B3SA3.</p>



<p>Concluindo, mostramos como fazer uma carteira eficiente e também verificamos que a Evolução Diferencial é um algoritmo de busca robusto que pode ser aplicado ao problema do minimização de uma carteira. Com relação ao tempo médio de execução do algoritmo, outras estratégias no processo de mutação poderiam ser úteis no processo de obtenção de um tempo mais rápido.<br><br>#cienciadedados #pesquisaoperacional #financas</p>
<p>O post <a rel="nofollow" href="http://estatidados.com.br/otimizando-carteiras-de-investimentos-com-data-science/">Otimizando carteiras de investimentos com Data Science</a> apareceu primeiro em <a rel="nofollow" href="http://estatidados.com.br">Estatidados</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>http://estatidados.com.br/otimizando-carteiras-de-investimentos-com-data-science/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
