From a3ced0e9b64b315c0a2b6204d148f7fe19320bdb Mon Sep 17 00:00:00 2001 From: AZANK7173 Date: Thu, 14 May 2020 22:53:46 -0300 Subject: [PATCH 1/8] Adiciona markdown de C --- .../Linguagens/C/README.md" | 24 +++++++++++++++++++ 1 file changed, 24 insertions(+) create mode 100644 "Programa\303\247\303\243o/Linguagens/C/README.md" diff --git "a/Programa\303\247\303\243o/Linguagens/C/README.md" "b/Programa\303\247\303\243o/Linguagens/C/README.md" new file mode 100644 index 0000000..1fe4bb8 --- /dev/null +++ "b/Programa\303\247\303\243o/Linguagens/C/README.md" @@ -0,0 +1,24 @@ + + +## Grupo Turing +# Linguagem de programação C + +- **Resumo**: +A linguagem C é uma linguagem compilada, procedural, imperativa de alta eficiência e extremamente semelhante a como as máquinas processam naturalmente seus dados. Devido a sua velocidade, ela costuma ser usada frequentemente para estruturar bibliotecas de outras linguagens, como, por exemplo: Tensorflow, Numpy e Pytorch. Contdo, em termos de ciência de dados, essa linguagem não é diretamente utilizada. + +- **Links**: + - [Vídeo-aulas de C do Grupo Turing (playlist)](https://www.youtube.com/watch?v=O2S5b88KAE0&list=PL-tx-k-UlaL5kShhztBEjow9uZOBBpKNc) + - [The C Book (inglês)](https://publications.gbdirect.co.uk/c_book/thecbook.pdf) + - [Linguagem C descomplicada](https://programacaodescomplicada.wordpress.com/indice/linguagem-c/) + - [25 Sites para aprender programação de graça](https://www.hostinger.com.br/tutoriais/11-sites-aprender-como-programar-de-graca/) + + +--- +**Grupo Turing** +Grupo de Extensão da Universidade de São Paulo (USP) + +[Email](mailto:turing.usp@gmail.com) +[Facebook](https://www.facebook.com/grupoturing.usp) +[Medium](https://www.medium.com/turing-talks) +[LinkedIn](https://www.linkedin.com/company/grupo-turing) + From da25464679b1a9b66ea975befcaa0500dbb668b9 Mon Sep 17 00:00:00 2001 From: AZANK7173 Date: Fri, 15 May 2020 00:36:05 -0300 Subject: [PATCH 2/8] Adiciona/readmeKNN --- .../Distance Based/README.md" | 27 +++++++++++++++++++ 1 file changed, 27 insertions(+) create mode 100644 "Machine Learning/Supervised Learning/Classifica\303\247\303\243o/Distance Based/README.md" diff --git "a/Machine Learning/Supervised Learning/Classifica\303\247\303\243o/Distance Based/README.md" "b/Machine Learning/Supervised Learning/Classifica\303\247\303\243o/Distance Based/README.md" new file mode 100644 index 0000000..c5f27eb --- /dev/null +++ "b/Machine Learning/Supervised Learning/Classifica\303\247\303\243o/Distance Based/README.md" @@ -0,0 +1,27 @@ + + +## Grupo Turing +# KNN - Classificação + +- **Resumo**: +Algoritmo que utiliza da "distância" entre os dados para encontrar semelhanças entre eles, atribuindo uma característica para um dado com categoria desconhecida a partir dos dados mais semelhantes a esse. Esse algoritmo é simples quando comparado com os demais algoritmos de Machine Learning, porém não é eficiente com datasets grandes, além de precisar de Feature Scaling por não apresentar um método próprio de lidar com a diferença de dimensão das features. Uma explicação bem mais clara está presente em nosso Turing Talk (link abaixo) + + + +- **Links**: + - [TURING TALK - KNN](https://medium.com/turing-talks/turing-talks-13-modelo-de-predi%C3%A7%C3%A3o-knn-3be880c9b9d1 +) + - [Medium com exemplo no scikit-learn (inglês)](https://towardsdatascience.com/knn-using-scikit-learn-c6bed765be75) + + - [Medium com explicação teórica (inglês)](https://blog.usejournal.com/a-quick-introduction-to-k-nearest-neighbors-algorithm-62214cea29c7) + + +--- +**Grupo Turing** +Grupo de Extensão da Universidade de São Paulo (USP) + +[Email](mailto:turing.usp@gmail.com) +[Facebook](https://www.facebook.com/grupoturing.usp) +[Medium](https://www.medium.com/turing-talks) +[LinkedIn](https://www.linkedin.com/company/grupo-turing) + From f9e1d7cbe36959b44964a988851dc4ea4a7ed20c Mon Sep 17 00:00:00 2001 From: AZANK7173 Date: Fri, 15 May 2020 13:06:41 -0300 Subject: [PATCH 3/8] Adiciona README do SVM --- .../Distance Based/SVM/README.md" | 28 +++++++++++++++++++ 1 file changed, 28 insertions(+) create mode 100644 "Machine Learning/Supervised Learning/Classifica\303\247\303\243o/Distance Based/SVM/README.md" diff --git "a/Machine Learning/Supervised Learning/Classifica\303\247\303\243o/Distance Based/SVM/README.md" "b/Machine Learning/Supervised Learning/Classifica\303\247\303\243o/Distance Based/SVM/README.md" new file mode 100644 index 0000000..6b8e220 --- /dev/null +++ "b/Machine Learning/Supervised Learning/Classifica\303\247\303\243o/Distance Based/SVM/README.md" @@ -0,0 +1,28 @@ + + +## Grupo Turing +# SVM - Classificação + +- **Resumo**: +O Support Vector Machine (SVM) trata-se de um algoritmo que utiliza de ferramentas matemáticas para encontrar a reta, ou hiperplano que melhor divide dois ou mais grupos de dados. Assim como o KNN, é um algortimo simples, contudo, é mais eficiente em datasets grandes pois desenvolve um agente discriminador, ao invés de analisar dado a dado para criar uma relação entre eles. Uma explicação mais detalhada está em nosso post do medium (link abaixo). + + + +- **Links**: + - [TURING TALK - SVM](https://medium.com/turing-talks/turing-talks-12-classifica%C3%A7%C3%A3o-por-svm-f4598094a3f1) + + - [Revisão teórica (inglês)](https://medium.com/machine-learning-101/chapter-2-svm-support-vector-machine-theory-f0812effc72) + + - [SVM - An overview (inglês)](https://towardsdatascience.com/https-medium-com-pupalerushikesh-svm-f4b42800e989) + + - [Vídeo da Simplilearn (inglês)](https://www.youtube.com/watch?v=TtKF996oEl8) + + +--- +**Grupo Turing** +Grupo de Extensão da Universidade de São Paulo (USP) + +[Email](mailto:turing.usp@gmail.com) +[Facebook](https://www.facebook.com/grupoturing.usp) +[Medium](https://www.medium.com/turing-talks) +[LinkedIn](https://www.linkedin.com/company/grupo-turing) From ef271063a56365f885bcf6b8503b1ef932df85b1 Mon Sep 17 00:00:00 2001 From: AZANK7173 Date: Wed, 10 Jun 2020 17:21:38 -0300 Subject: [PATCH 4/8] adiciona readme de Ensemble --- .../Ensemble/Bagging/README.md | 80 +++++++++++++++++++ 1 file changed, 80 insertions(+) create mode 100644 Machine Learning/Supervised Learning/Ensemble/Bagging/README.md diff --git a/Machine Learning/Supervised Learning/Ensemble/Bagging/README.md b/Machine Learning/Supervised Learning/Ensemble/Bagging/README.md new file mode 100644 index 0000000..ba2a61e --- /dev/null +++ b/Machine Learning/Supervised Learning/Ensemble/Bagging/README.md @@ -0,0 +1,80 @@ + + +## Grupo Turing +# Ensemble Learning: Bagging + +## 1-Introdução + +Bagging é um método de ensemble learning que utiliza bootstrapping, criação de modelos em paralelo e sua agregação para montar um modelo definitivo, o que justifica seu nome: “bootstrap aggregating”. O objetivo de usá-lo é diminuir a variância dos modelos bases, os quais, normalmente, são Decision Trees com grandes profundidades. + +## 2-Bootstrapping, o conceito base + +Bootstrap consiste na técnica de tirar várias amostras de um conjunto de dados e usá-las para tirar informações sobre o conjunto todo como média e desvio padrão. Nós, porém, usaremos essa técnica para melhorar nossas predições. Um detalhe importante do bootstrapping é que toda amostra nova retirada retorna alguns dos seus componentes ao grupo original e troca por outros, isso é chamado amostragem com retorno (é possível retirar a mesma observação mais de uma vez). + +O processo pode ser explicado nas seguintes etapas: +* Escolher o número de amostras para fazer +* Escolher o tamanho da amostra +* Para cada amostra, retirar (com retorno) com o tamanho definido e calcular suas estatísticas +* Calcule as médias das estatísticas de todas as amostras montadas + +## 3-Explicação do funcionamento + +De acordo com o artigo “Bagging Predictors” escrito por Leo Breiman em 1994, modelos de bagging são métodos para gerar múltiplas versões de um preditor e usar esses de forma agregada para construir um mais forte. + +Consideremos um dataset de N observações independentes, o objetivo é, a partir de datasets menores de combinações desses N, construir um modelo melhor do que seria construído com o conjunto todo somente. + +Se o retorno dos modelos é uma informação numérica então o procedimento adotado é a média. Se o retorno dos modelos é uma classificação então o método de agregação é uma votação. + +O processo de criação pode ser resumido assim: + +* Escolher o número de amostras a serem feitas +* Escolher o tamanho das amostras +* Tirar as amostras com retorno e treinar os modelos nelas +* Aplicar todos os modelos ao dataset que se deseja fazer uma previsão +* Tirar a média das previsões, esta será a previsão final + +Esse processo também pode ser usado para checar o quanto um modelo é bom apenas mudando um pouco os passos finais. Faz-se uma avaliação dos modelos numa base de teste e tira-se a média das estatísticas obtidas, assim chegando a uma conclusão sobre o modelo em si. + +## 4-Aplicação + +O mais importante a se considerar quando usar essa técnica de ensemble learning é se o modelo base é instável. Ser instável significa que uma pequena alteração no dataset de treino gera grandes mudanças nas previsões feitas pelo modelo. É mais um motivo pelo qual árvores de decisão são comumente usadas dessa forma. + +É importante notar que bagging funciona com bons preditores, enquanto com os ruins, pode piorar ainda mais o resultado. + +## 5-Desvantagens + +* Perda da facilidade de interpretação (o modelo final não é o modelo base e por isso não é tão fácil interpretá-lo) +* Complexidade computacional (os múltiplos modelos base ao mesmo tempo são computacionalmente caros) + +## 6-Código + +* [Construção desde a base de um modelo com bagging em python](https://machinelearningmastery.com/implement-bagging-scratch-python/) + +* [Exemplo de Bagging para classificação](https://www.geeksforgeeks.org/ml-bagging-classifier/) + +* [Exemplo de Bagging para Regressão no fim do post](https://medium.com/turing-talks/turing-talks-24-modelos-de-predi%C3%A7%C3%A3o-ensemble-learning-aa02ce01afda) + +* [Mexer com Random Forest e seus hiperparâmetros](https://medium.com/turing-talks/turing-talks-18-modelos-de-predi%C3%A7%C3%A3o-random-forest-cfc91cd8e524) + + +## 7-Inspiração do texto + +* [Texto que dá uma análise mais matemática por trás da técnica](https://www.stat.cmu.edu/~ryantibs/datamining/lectures/24-bag.pdf) + +* Artigo muito famoso de 1994 sobre Bagging: "[Bagging Predictors" de Leo Breiman](https://link.springer.com/content/pdf/10.1023%2FA%3A1018054314350.pdf) + +- **Turing Talks**: + - [TURING TALK - Random Forest](https://medium.com/turing-talks/turing-talks-18-modelos-de-predi%C3%A7%C3%A3o-random-forest-cfc91cd8e52) + + - [TURING TALK - Ensamble Learning](https://medium.com/turing-talks/turing-talks-24-modelos-de-predi%C3%A7%C3%A3o-ensemble-learning-aa02ce01afda) + + +--- +**Grupo Turing** +Grupo de Extensão da Universidade de São Paulo (USP) + +[Email](mailto:turing.usp@gmail.com) +[Facebook](https://www.facebook.com/grupoturing.usp) +[Medium](https://www.medium.com/turing-talks) +[LinkedIn](https://www.linkedin.com/company/grupo-turing) + From 085eedd930a2738de734fcf763f0e9b01e2bf487 Mon Sep 17 00:00:00 2001 From: AZANK7173 Date: Wed, 10 Jun 2020 17:55:26 -0300 Subject: [PATCH 5/8] adiciona readme de Stacking --- .../Ensemble/Stacking/README.md | 62 +++++++++++++++++++ 1 file changed, 62 insertions(+) create mode 100644 Machine Learning/Supervised Learning/Ensemble/Stacking/README.md diff --git a/Machine Learning/Supervised Learning/Ensemble/Stacking/README.md b/Machine Learning/Supervised Learning/Ensemble/Stacking/README.md new file mode 100644 index 0000000..0fe3c01 --- /dev/null +++ b/Machine Learning/Supervised Learning/Ensemble/Stacking/README.md @@ -0,0 +1,62 @@ + + +## Grupo Turing +# Ensemble Learning: Stacking + +## Introdução + +Stacking, também às vezes referenciado como blending, é uma técnica de ensemble learning que consiste em combinar múltiplos modelos passando suas predições a um “meta-modelo” que funcionará melhor do que os preditores individualmente. + +O conjunto de preditores usados como base é chamado de primeira camada e o “meta-modelo” de segunda camada, é possível adicionar mais camadas nessa técnica, porém nem sempre compensa fazê-lo, podendo chegar a iguais ou piores resultados. + + + + + +## Processo de Criação + +### 1-Preparar os datasets + +* Selecionar features e target +* Fazer Data Cleaning +* Mudar variáveis categóricas para dummie variables +* Dividir em dataset treino e teste + +### 2-Construir os preditores da primeira camada + +* Construir os preditores (podem ser de tipos diferentes) da primeira camada +* Fit os modelos no dataset de treino + +### 3-Adicionar as predições ao dataset + +* Calcular as predições +* Adicionar elas ao dataset por concatenação + +### 4-Construir o “meta-preditor” + +* Construir o preditor da segunda camada +* Treinar o preditor no dataset com as predições da primeira camada adicionadas + +### 5-Usar o conjunto criado para a predição + +* Faça a predição dos preditores da primeira camada no dataset de teste +* Concatene essas predições no dataset +* Utilize esse dataset para o preditor da segunda camada + + +## **Links**: +* [Stacking com redes neurais](https://machinelearningmastery.com/stacking-ensemble-for-deep-learning-neural-networks/ +) + +* [Código em python de stacking](https://medium.com/@rrfd/boosting-bagging-and-stacking-ensemble-methods-with-sklearn-and-mlens-a455c0c982de) + + +--- +**Grupo Turing** +Grupo de Extensão da Universidade de São Paulo (USP) + +[Email](mailto:turing.usp@gmail.com) +[Facebook](https://www.facebook.com/grupoturing.usp) +[Medium](https://www.medium.com/turing-talks) +[LinkedIn](https://www.linkedin.com/company/grupo-turing) + From 65abb454a9992d9a175116d7913962c353936e6e Mon Sep 17 00:00:00 2001 From: AZANK7173 Date: Wed, 10 Jun 2020 23:11:49 -0300 Subject: [PATCH 6/8] adiciona readme de Boosting --- .../Ensemble/Boosting/README.md | 113 ++++++++++++++++++ 1 file changed, 113 insertions(+) create mode 100644 Machine Learning/Supervised Learning/Ensemble/Boosting/README.md diff --git a/Machine Learning/Supervised Learning/Ensemble/Boosting/README.md b/Machine Learning/Supervised Learning/Ensemble/Boosting/README.md new file mode 100644 index 0000000..d038ea1 --- /dev/null +++ b/Machine Learning/Supervised Learning/Ensemble/Boosting/README.md @@ -0,0 +1,113 @@ + + +## Grupo Turing +# Ensemble Learning: Boosting + +## Introdução + +Boosting é um tipo de ensemble learning que usa do aprendizado sequencial de +modelos de predição mais fracos, corrigindo os erros dos modelos anteriores, para criar um +mais forte. Seu objetivo é reduzir o alto viés que ocorreria no caso de se usar somente os +modelos fracos, para tal, devem ser usados modelos base com baixa variância e alto viés. O modelo razo mais comumente usado é a árvore de decisão. + +## Tipos principais e como funcionam + +### Adaboost (Adaptative Boosting) +Adaboost é um algoritmo de boosting que usa árvores de decisão de profundidade 1 +chamados tocos (stumps) que serve tanto para classificação quanto para regressão. O primeiro +toco aplica uma divisão e o segundo verifica quais datapoints não foram classificados +corretamentes e aumenta o peso deles na função erro aplicada para que sejam mais +importantes nessa divisão, os corretamente classificados tem peso diminuído e o processo +segue em frente até tudo ser corretamente classificado com a junção desses . Os modelos +também têm pesos de acordo com seu sucesso para determinar sua influência no ensemble +final. + +Prós: +* Flexível para ser combinado com outros algoritmos de ML +* Único parâmetro a ser melhorado é o T +* Pode ser usado com dados numéricos ou com texto + +Cons: +* Modelos muito fracos podem levar a overfitting +* Algoritmo relativamente antigo e existem outras versões melhores atualmente +* Problemas com noise que é consistente + +Exemplo de Classificador: + + + +Exemplo de Regressor: + + + + +### Gradient Boosting +Assim como o Adaboost esse algoritmo também funciona sequencialmente +porém, ao invés de mudar os pesos dos erros, ele aplica o próximo modelo aos erros do +anterior. Ele utiliza então uma técnica conhecida como Gradient Descent nos parâmetros para os sucessivos modelos. Essa técnica, em linhas gerais, visa encontrar o mínimo global da função perda a partir da atualização dos parâmetros do modelo na direção de suas derivadas parciais. + +Prós: +* Alta performance +* Facilmente melhorado (tuning) +* Simples de programar + +Cons: +* Uma pequena mudança na base de treino gera uma grande mudança no modelo +* Não é fácil entender as predições + +Exemplo de Regressor: + + + +Exemplo de Classificador: + + + + + + +### XGBoost (eXtreme Gradient Boosting) + +XGboost é uma versão otimizada de gradient boosting usando diversas técnicas de programação, e.g. paralelismo, matriz esparsas e regularização, para agilizar o processamento e diminuir o overfitting. + +Prós: +* Regularização +* Processamento em paralelo +* Pode lidar com valores faltantes +* Usa Cross Validation +* Faz um bom Tree Prunning (desconsiderar árvores com baixa importância no modelo) + +Cons: +* Pode ser lento +* Pode criar um modelo complexo + +Exemplo de Classificador: + + + +Exemplo de Regressor: + + + +## **Links Úteis**: + +* https://towardsdatascience.com/boosting-algorithms-explained-d38f56ef3f30 +* https://medium.com/greyatom/a-quick-guide-to-boosting-in-ml-acf7c1585cb5 +* https://stats.stackexchange.com/questions/7813adjusting-sample-weights-in-adaboost +* https://www.edureka.co/blog/boosting-machine-learning/ +* https://www.datacamp.com/community/tutorials/adaboost-classifier-python +* https://machinelearningmastery.com/boosting-and-adaboost-for-machine-learning/ +* https://hub.packtpub.com/ensemble-methods-optimize-machine-learning-models/ +* https://www.educba.com/adaboost-algorithm/ + + + +--- +**Grupo Turing** +Grupo de Extensão da Universidade de São Paulo (USP) + +[Email](mailto:turing.usp@gmail.com) +[Facebook](https://www.facebook.com/grupoturing.usp) +[Medium](https://www.medium.com/turing-talks) +[LinkedIn](https://www.linkedin.com/company/grupo-turing) + From bb32dab426ac2cf0923445ebab764053110f4afb Mon Sep 17 00:00:00 2001 From: AZANK7173 Date: Thu, 11 Jun 2020 11:55:23 -0300 Subject: [PATCH 7/8] =?UTF-8?q?Adiciona=20o=20Readme=20de=20regress=C3=A3o?= =?UTF-8?q?=20linear?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- .../Regressao_Linear/README.md" | 29 +++++++++++++++++++ 1 file changed, 29 insertions(+) create mode 100644 "Machine Learning/Supervised Learning/Regress\303\243o/Distance Based/Regressao_Linear/README.md" diff --git "a/Machine Learning/Supervised Learning/Regress\303\243o/Distance Based/Regressao_Linear/README.md" "b/Machine Learning/Supervised Learning/Regress\303\243o/Distance Based/Regressao_Linear/README.md" new file mode 100644 index 0000000..24b901c --- /dev/null +++ "b/Machine Learning/Supervised Learning/Regress\303\243o/Distance Based/Regressao_Linear/README.md" @@ -0,0 +1,29 @@ + + +## Grupo Turing +# Regressão Linear + +- **Resumo**: +Algoritmo que busca encontrar a reta que melhor representa a relação entre features e target, de modo a encontrar uma tendência. O algoritmo tem, como objetivo, a predição de valores numéricos. Sua explicação matemática, assim como um exemplo de sua classificação, se encontram em nosso Turing Talk abaixo. + + + +- **Links**: + - [Turing Talks: Modelos de Predição | Regressão Linear](https://medium.com/turing-talks/turing-talks-11-modelo-de-predi%C3%A7%C3%A3o-regress%C3%A3o-linear-7842709a593b +) + - [The Basics: KNN for classification and regression](https://towardsdatascience.com/the-basics-knn-for-classification-and-regression-c1e8a6c955) + - [Linear Regression — Detailed View](https://towardsdatascience.com/linear-regression-detailed-view-ea73175f6e86) + - [Introduction to Machine Learning Algorithms: Linear Regression](https://towardsdatascience.com/introduction-to-machine-learning-algorithms-linear-regression-14c4e325882a) + - [Vídeo explicativo do canal Simplilearn](https://www.youtube.com/watch?v=NUXdtN1W1FE&list=PLEiEAq2VkUULYYgj13YHUWmRePqiu8Ddy&index=14) + - [Vídeo explicativo Andrew Ng (Stanford)](https://www.youtube.com/watch?v=kHwlB_j7Hkc) + + +--- +**Grupo Turing** +Grupo de Extensão da Universidade de São Paulo (USP) + +[Email](mailto:turing.usp@gmail.com) +[Facebook](https://www.facebook.com/grupoturing.usp) +[Medium](https://www.medium.com/turing-talks) +[LinkedIn](https://www.linkedin.com/company/grupo-turing) + From 8c836edbc39cda8c22063d0c2e71d98b72c803a6 Mon Sep 17 00:00:00 2001 From: AZANK7173 Date: Thu, 11 Jun 2020 12:20:57 -0300 Subject: [PATCH 8/8] adiciona Readme de random forest regressor --- .../Random Forest Regressor/README.md" | 36 +++++++++++++++++++ 1 file changed, 36 insertions(+) create mode 100644 "Machine Learning/Supervised Learning/Regress\303\243o/Information Based/Random Forest Regressor/README.md" diff --git "a/Machine Learning/Supervised Learning/Regress\303\243o/Information Based/Random Forest Regressor/README.md" "b/Machine Learning/Supervised Learning/Regress\303\243o/Information Based/Random Forest Regressor/README.md" new file mode 100644 index 0000000..45c4a30 --- /dev/null +++ "b/Machine Learning/Supervised Learning/Regress\303\243o/Information Based/Random Forest Regressor/README.md" @@ -0,0 +1,36 @@ + + +## Grupo Turing +# Random Forest (Regressão) + +- **Resumo**: +Este método supervisionado de regressão é baseado no método de bagging (mais detalhado na seção deste assunto em Ensemble Learning), onde decision trees são executadas em paralelo, sem interações entre si. No caso de um modelo de classificação, o resultado final é a moda dos resultados fornecidos pelas árvores, enquanto, para a regressão, o resultado é a média da previsão de cada uma das árvores individuais. + + + + +A vantagem de se utilizar uma random forest ao invés de somente uma Decision Tree é que os hiperparâmetros desta garantem que o modelo não depende muito de uma só feature, além de reduzir o overfitting, pois cada uma das decision trees usa uma parte aleatória do dataset, reduzindo a correlação entre elas. Portanto, essas Decisions Trees, ao se unirem, criam um modelo muito mais balanceado. + +Veja também: +* [Decision Tree Regressor]() +* [Random Forest Classifier]() +* [Bagging]() + + +- **Links Úteis**: + - [Texto do Turing Talks (Classifier)](https://medium.com/turing-talks/turing-talks-18-modelos-de-predi%C3https://www.quora.com/How-does-random-forest-work-for-regression-1%A7%C3%A3o-random-forest-cfc91cd8e524 +) + - [Random Forest Regression](https://towardsdatascience.com/random-forest-and-its-implementation-71824ced454f) + - [A Beginners Guide to Random Forest Regression](https://medium.com/datadriveninvestor/random-forest-regression-9871bc9a25eb) + - [How does random forest work for regression?](https://www.quora.com/How-does-random-forest-work-for-regression-1) + +--- +**Grupo Turing** +Grupo de Extensão da Universidade de São Paulo (USP) + +[Email](mailto:turing.usp@gmail.com) +[Facebook](https://www.facebook.com/grupoturing.usp) +[Medium](https://www.medium.com/turing-talks) +[LinkedIn](https://www.linkedin.com/company/grupo-turing) + +https://www.quora.com/How-does-random-forest-work-for-regression-1 \ No newline at end of file