Pular para o conteúdo principal
InicioTutoriaisData Analysis

Principais técnicas para lidar com valores ausentes que todo cientista de dados deve conhecer

Explore várias técnicas para lidar eficientemente com valores ausentes e suas implementações em Python.
abr. de 2024  · 15 min leer

Lidar com dados ausentes é um problema comum e inerente à coleta de dados, especialmente quando se trabalha com grandes conjuntos de dados. Há vários motivos para a falta de dados, como informações incompletas fornecidas pelos participantes, não resposta daqueles que se recusam a compartilhar informações, pesquisas mal elaboradas ou remoção de dados por motivos de confidencialidade.

Quando não são tratados adequadamente, os dados ausentes podem distorcer as conclusões de todas as análises estatísticas dos dados, levando a empresa a tomar decisões erradas.

Este artigo se concentrará em algumas técnicas para lidar eficientemente com valores ausentes e suas implementações em Python. Ilustraremos as vantagens e desvantagens de cada técnica para ajudá-lo a escolher a mais adequada para uma determinada situação.

Identificação de dados ausentes

Os dados ausentes ocorrem em diferentes formatos. Esta seção explica os diferentes tipos de dados ausentes e como identificá-los.

Tipos de dados ausentes

Há três tipos principais de dados ausentes: (1) Completamente ausente ao acaso (MCAR), (2) Ausente ao acaso (MAR) e (3) Ausente não ao acaso (MNAR).

É importante entender melhor cada um deles para escolher os métodos adequados para lidar com eles. 

1) MCAR - Ausente de forma completamente aleatória

Isso acontece se todas as variáveis e observações tiverem a mesma probabilidade de estarem ausentes. Imagine dar a uma criança Lego de cores diferentes para construir uma casa. Cada Lego representa uma informação, como forma e cor. A criança pode perder alguns Legos durante o jogo. Esses legos perdidos representam informações perdidas, assim como quando eles não conseguem se lembrar da forma ou da cor do Lego que tinham. Essas informações foram perdidas aleatoriamente, mas não alteram as informações que a criança tem sobre os outros Legos. 

2) MAR - Ausente ao acaso

Para o MAR, a probabilidade de o valor estar ausente está relacionada ao valor da variável ou de outras variáveis no conjunto de dados. Isso significa que nem todas as observações e variáveis têm a mesma chance de estar ausentes. Um exemplo de MAR é uma pesquisa na comunidade de dados em que os cientistas de dados que não atualizam suas habilidades com frequência têm maior probabilidade de não estar cientes dos novos algoritmos ou tecnologias de ponta e, portanto, pulam determinadas perguntas. Os dados ausentes, nesse caso, estão relacionados à frequência com que o cientista de dados aprimora suas habilidades.

3) MNAR - Ausência não aleatória

O MNAR é considerado o cenário mais difícil entre os três tipos de dados ausentes. Ele é aplicado quando nem o MAR nem o MCAR se aplicam. Nessa situação, a probabilidade de estar ausente é completamente diferente para valores diferentes da mesma variável, e esses motivos podem ser desconhecidos para nós. Um exemplo de MNAR é uma pesquisa sobre casais casados. Os casais com um relacionamento ruim talvez não queiram responder a certas perguntas, pois podem se sentir envergonhados.

Métodos para identificar dados ausentes

Há vários métodos que podem ser usados para identificar dados ausentes no pandas. Abaixo estão os mais recorrentes.

Funções

Descrições

.isnull()

Essa função retorna um dataframe do pandas, em que cada valor é um valor booleano Verdadeiro se o valor estiver ausente, Falso caso contrário.

.notnull()

Da mesma forma que a função anterior, os valores para essa função são False (Falso) se for detectado um valor NaN ou None (Nenhum).

.info()

Essa função gera três colunas principais, incluindo a "Non-Null Count" (contagem não nula), que mostra o número de valores não ausentes para cada coluna.

.isna()

Esse é semelhante ao isnull e ao notnull. No entanto, ele mostra True somente quando o valor ausente é do tipo NaN. 

Tabela de métodos para identificar dados ausentes 

Tratamento de dados ausentes

Existem várias abordagens para lidar com dados ausentes. Esta seção aborda alguns deles, juntamente com seus benefícios e desvantagens.

Para ilustrar melhor o caso de uso, usaremos os dados de empréstimo disponíveis no DataCamp Workspace junto com o código-fonte abordado no tutorial

Como o conjunto de dados não tem nenhum valor ausente, usaremos um subconjunto dos dados (100 linhas) e, em seguida, introduziremos manualmente os valores ausentes.

import pandas as pd
sample_customer_data = pd.read_csv("data/customer_churn.csv",  nrows=100)
sample_customer_data.info()

Amostra de 100 amostras aleatórias

Amostra de 100 amostras aleatórias antes da introdução de valores ausentes

Vamos introduzir 50% dos valores ausentes em cada coluna do quadro de dados usando.

import numpy as np
def introduce_nan(x,percentage):
n = int(len(x)*(percentage - x.isna().mean()))
idxs = np.random.choice(len(x), max(n,0), replace=False, p=x.notna()/x.notna().sum())
x.iloc[idxs] = np.nan

A aplicação da função aos dados gera esse resultado. 

sample_customer_data.apply(introduce_nan, percentage=.5)
sample_customer_data.info()

amostras após a introdução de valores ausentes

Amostra de 100 amostras aleatórias após a introdução de valores ausentes

Abaixo estão as primeiras cinco linhas do conjunto de dados. 

sample_customer_data.head()

Primeiras cinco linhas com valores nulos

Primeiras cinco linhas com valores nulos

Queda de dados

Usar a função dropna() é a maneira mais fácil de remover observações ou recursos com valores ausentes do dataframe. Abaixo estão algumas técnicas. 

1) Eliminar observações com valores ausentes

Esses três cenários podem ocorrer ao tentar remover observações de um conjunto de dados: 

  • dropna()Elimina todas as linhas com valores ausentes.
drop_na_strategy = sample_customer_data.dropna()
drop_na_strategy.info()

Observações de queda

Eliminar observações usando a função padrão dropna()

Podemos ver que todas as observações são excluídas do conjunto de dados, o que pode ser especialmente perigoso para o restante da análise. 

  • dropna(how = ‘all’): as linhas em que todos os valores da coluna estão ausentes.
drop_na_all_strategy = sample_customer_data.dropna(how="all")
drop_na_all_strategy.info()

No resultado abaixo, notamos que não há nenhuma observação com todas as colunas ausentes.

amostras após a introdução de valores ausentes

Eliminar observações usando a estratégia "all" (todos)

  • dropna(thresh = minimum_value)Eliminar linhas com base em um limite. Essa estratégia define um número mínimo de valores ausentes necessários para preservar as linhas. 
drop_na_thres_strategy = sample_customer_data.dropna(thresh=0.6)
drop_na_thres_strategy.info()

Definindo o limite para 60%, o resultado é o mesmo em comparação com o anterior.

Eliminar observações usando a estratégia "all" (todos)

Eliminar observações usando o limite

2) Eliminar colunas com valores ausentes

O parâmetro axis = 1 pode ser usado para especificar explicitamente que estamos interessados em colunas em vez de linhas. 

  • dropna(axis = 1)Elimina todas as colunas com valores ausentes.
drop_na_cols_strategy = sample_customer_data.dropna(axis=1)
drop_na_cols_strategy.info()

Não há mais colunas nos dados. Isso ocorre porque todas as colunas têm pelo menos um valor ausente.

Quadro de dados vazio após o dropna

Dataframe vazio após dropna() nas colunas

Como muitas outras abordagens, o site dropna() também tem alguns prós e contras.

Prós

  • Direto e simples de usar.
  • É benéfico quando os valores ausentes não têm importância. 

Contras

  • O uso dessa abordagem pode levar à perda de informações, o que pode introduzir uma tendência no conjunto de dados final.
  • Isso não é apropriado quando os dados não estão ausentes de forma completamente aleatória.
  • O conjunto de dados com uma grande proporção de valores ausentes pode ser significativamente reduzido, o que pode afetar o resultado de todas as análises estatísticas desse conjunto de dados. 

Imputação de média/mediana

Essas estratégias de substituição são autoexplicativas. As imputações média e mediana são usadas, respectivamente, para substituir os valores ausentes de uma determinada coluna pela média e mediana dos valores não ausentes nessa coluna. 

A distribuição normal é o cenário ideal. Infelizmente, nem sempre é esse o caso. É nesse ponto que a imputação mediana pode ser útil, pois não é sensível a valores discrepantes.

No Python, a função fillna() do pandas pode ser usada para fazer essas substituições. 

  • Ilustração da imputação média.
mean_value = sample_customer_data.mean()
mean_imputation = sample_customer_data.fillna(mean_value)

Resultado da imputação média

Resultado da imputação média

  • Ilustração da imputação mediana
median_value = sample_customer_data.median()
median_imputation = sample_customer_data.fillna(median_value)
median_imputation.head()

Resultado da imputação média

Resultado da imputação mediana

Prós

  • A simplicidade e a facilidade de implementação são alguns dos benefícios da imputação da média e da mediana.
  • A imputação é realizada usando as informações existentes dos dados não ausentes; portanto, não são necessários dados adicionais.
  • A imputação média e mediana pode fornecer uma boa estimativa dos valores ausentes, respectivamente para dados normalmente distribuídos e dados distorcidos.

Contras

  • Não podemos aplicar essas duas estratégias a colunas categóricas. Eles só podem funcionar para os numéricos.
  • A imputação média é sensível a exceções e pode não ser uma boa representação da tendência central dos dados. Da mesma forma que a média, a mediana também pode não representar melhor a tendência central.
  • A imputação mediana pressupõe que os dados estão ausentes de forma completamente aleatória (MCAR), o que nem sempre é verdade. 

Imputação de amostras aleatórias

A ideia por trás da imputação de amostras aleatórias é diferente das anteriores e envolve etapas adicionais. 

  • Primeiro, ele começa criando dois subconjuntos a partir dos dados originais. 
  • O primeiro subconjunto contém todas as observações sem dados ausentes, e o segundo contém aquelas com dados ausentes. 
  • Em seguida, ele seleciona aleatoriamente de cada subconjunto uma observação aleatória.
  • Além disso, os dados ausentes da observação selecionada anteriormente são substituídos pelos dados existentes da observação com todos os dados disponíveis.
  • Por fim, o processo continua até que não haja mais informações faltantes.
def random_sample_imputation(df):
   
cols_with_missing_values = df.columns[df.isna().any()].tolist()

for var in cols_with_missing_values:

    # extract a random sample
    random_sample_df = df[var].dropna().sample(df[var].isnull().sum(),
                                                  random_state=0)
    # re-index the randomly extracted sample
    random_sample_df.index = df[
            df[var].isnull()].index

    # replace the NA
    df.loc[df[var].isnull(), var] = random_sample_df
 
return df
df = sample_customer_data.copy()
random_sample_imp_df = random_sample_imputation(sample_customer_data)
random_sample_imp_df.head()

Imputação de amostras aleatórias

Imputação de amostras aleatórias

Prós

  • Essa é uma técnica fácil e direta.
  • Ele lida com tipos de dados numéricos e categóricos.
  • Há menos distorção na variação dos dados e ela também preserva a distribuição original dos dados, o que não acontece com a média, a mediana e outros.

Contras

  • A aleatoriedade não funciona necessariamente em todas as situações, e isso pode infundir ruído nos dados, levando a conclusões estatísticas incorretas. 
  • Da mesma forma que a média e a mediana, essa abordagem também pressupõe que os dados estão ausentes de forma completamente aleatória (MCAR).

Imputação múltipla

Essa é uma técnica de imputação multivariada, o que significa que as informações ausentes são preenchidas levando-se em consideração as informações das outras colunas. 

Por exemplo, se o valor da renda de um indivíduo estiver faltando, não é possível saber se ele tem ou não uma hipoteca. Portanto, para determinar o valor correto, é necessário avaliar outras características, como pontuação de crédito, ocupação e se o indivíduo possui ou não uma casa.

A imputação múltipla por equações encadeadas (MICE, na sigla em inglês) é um dos métodos de imputação mais populares na imputação multivariada. Para entender melhor a abordagem MICE, vamos considerar o conjunto de variáveis X1, X2, ... Xn, em que alguns ou todos têm valores ausentes. 

O algoritmo funciona da seguinte forma: 

  • Para cada variável, substitua o valor ausente por uma estratégia de imputação simples, como a imputação média, também considerada como "placeholders".
  • Os "espaços reservados" para a primeira variável, X1, são regredidos por meio de um modelo de regressão em que X1 é a variável dependente e o restante das variáveis são as variáveis independentes. Em seguida, X2 é usado como variável dependente e o restante como variável independente. O processo continua dessa forma até que todas as variáveis sejam consideradas pelo menos uma vez como a variável dependente.
  • Esses "placeholders" originais são então substituídos pelas previsões do modelo de regressão.
  • O processo de substituição é repetido por um número de ciclos que geralmente é dez, de acordo com Raghunathan et al. 2002, e a imputação é atualizada a cada ciclo. 
  • No final do ciclo, o ideal é que os valores ausentes sejam substituídos pelos valores de previsão que melhor reflitam as relações identificadas nos dados.

A implementação é realizada usando a biblioteca miceforest

Primeiro, precisamos instalar a biblioteca usando o endereço pip.

pip install miceforest

Em seguida, importamos o módulo ImputationKernel e criamos o kernel para imputação.

from miceforest import ImputationKernel

mice_kernel = ImputationKernel(
data = sample_customer_data,
save_all_iterations = True,
random_state = 2023
)

Além disso, executamos o kernel nos dados por duas iterações e, por fim, criamos os dados imputados.

mice_kernel.mice(2)
mice_imputation = mice_kernel.complete_data()
mice_imputation.head()

Imputação múltipla

Imputação múltipla

Prós

  • A imputação múltipla é poderosa para lidar com dados ausentes em várias variáveis e vários tipos de dados. 
  • A abordagem pode produzir resultados muito melhores do que as imputações médias e medianas. 
  • Muitos outros algoritmos, como K-Nearest Neighbors, Random Forest e redes neurais, podem ser usados como a espinha dorsal da previsão de imputação múltipla para fazer previsões.  

Contras

  • A imputação múltipla pressupõe que os dados estão ausentes de forma aleatória (MAR).
  • Apesar de todos os benefícios, essa abordagem pode ser computacionalmente cara em comparação com outras técnicas, especialmente quando se trabalha com grandes conjuntos de dados. 
  • Essa abordagem exige mais esforço do que as anteriores.

De todas as imputações, é possível identificar qual delas está mais próxima da distribuição dos dados originais.

A média (em amarelo) e a mediana (em vermelho) estão muito distantes da distribuição original dos dados da coluna "Charge amount" e, portanto, não são consideradas ótimas para imputar os dados.

mean_imputation["Charge Amount Mean Imp"] = mean_imputation["Charge Amount"]
median_imputation["Charge Amount Median Imp"] = median_imputation["Charge Amount"]
random_sample_imp_df["Charge Amount Random Imp"] = random_sample_imp_df["Charge Amount"]

Com as novas colunas criadas para cada tipo de imputação, podemos agora traçar o gráfico da distribuição.

import matplotlib.pyplot as plt
plt.figure(figsize=(12,8))

sample_customer_data["Charge Amount"].plot(kind='kde',color='blue')
mean_imputation["Charge Amount Mean Imp"].plot(kind='kde',color='yellow')
median_imputation["Charge Amount Median Imp"].plot(kind='kde',color='red')

Dados originais vs. média vs. mediana

Distribuição de "Charge Amount": dados originais vs. média vs. mediana.

Ao traçar a imputação múltipla e a imputação aleatória abaixo, essas distribuições são perfeitamente sobrepostas aos dados originais. Isso significa que essas imputações são melhores do que as imputações média e mediana.

random_sample_imp_df["Charge Amount Random Imp"] = random_sample_imp_df["Charge Amount"]
mice_imputation["Charge Amount MICE Imp"] = mice_imputation["Charge Amount"]

mice_imputation["Charge Amount MICE Imp"].plot(kind='kde',color='black')
random_sample_imp_df["Charge Amount Random Imp"].plot(kind='kde',color='purple')

plt.legend()

dados originais vs média vs mediana vs MICE vs aleatório

Distribuição de "Charge Amount": dados originais vs. média vs. mediana vs. MICE vs. randômico

O curso Handling Missing Data with Imputations in R é um ótimo recurso para saber mais sobre estratégias para lidar com valores ausentes. Ele aborda como aplicar testes estatísticos e de visualização para reconhecer padrões de dados ausentes e como imputá-los com técnicas estatísticas e de aprendizado de máquina.  

Da mesma forma, o curso Lidando com dados ausentes em Python explica como identificar, analisar, remover e imputar dados ausentes em Python.

Práticas recomendadas

Escolha do método de imputação correto com base no tipo de dados ausentes

Há várias estratégias de imputação, e elas não devem ser usadas às cegas. A adoção da abordagem correta pode evitar a introdução de viés nos dados e a tomada de decisões erradas. 

A tabela a seguir ilustra qual método de imputação deve ser usado com base no tipo de dados ausentes. A lista de métodos não é exaustiva, mas esses são os mais comumente usados.

Tipo de dados ausentes

Método de imputação

Ausente completamente ao acaso

Média, Mediana, Modo ou qualquer outro método de imputação

Desaparecido ao acaso

Imputação múltipla, imputação de regressão

Missing Not At Random

Substituição de padrões, estimativa de máxima verossimilhança

Avaliação do impacto da imputação na análise geral

É importante ter em mente que os dados originais não podem ser recuperados, independentemente da técnica de imputação. No entanto, é possível usar técnicas que podem gerar conjuntos de dados imputados que sejam o mais próximo possível da realidade. 

Abaixo estão algumas etapas importantes a serem consideradas durante a avaliação.

  • Execute várias técnicas de imputação para identificar a mais robusta. Isso pode ajudar a identificar qualquer viés e variações de uma técnica para outra.
  • Compare os dados imputados finais com os dados originais não imputados para avaliar a confiabilidade do método de imputação. 
  • Inclua o processo de imputação no pipeline geral de análise, desde a limpeza dos dados até a criação de qualquer modelo de aprendizado de máquina. 

Comunicação de dados ausentes e métodos de imputação às partes interessadas

Ter dados de boa qualidade é o objetivo de todas as partes interessadas e profissionais de dados. 

Honestidade e transparência são fundamentais ao comunicar dados ausentes na análise. Abaixo estão alguns aspectos importantes a serem considerados. 

  • Esteja ciente do contexto dos dados ausentes, sejam eles MCAR, MAR ou MNAR.
  • Explique e documente claramente os métodos usados para lidar com os dados ausentes nos dados gerais e discuta as vantagens e desvantagens de cada abordagem.
  • Comunicar os resultados de forma que possam ser compreendidos pelas partes interessadas.

Conclusão

Este artigo abordou o que são dados ausentes e seu impacto no processo de tomada de decisão orientado por dados. Ele também o orientou em algumas estratégias para lidar com elas, juntamente com suas vantagens e desvantagens para a tomada de decisões práticas.

Esperamos que ele lhe forneça as estratégias relevantes para lidar eficientemente com seus problemas de dados ausentes.

Perguntas frequentes sobre valores ausentes

O que são dados ausentes?

Dados ausentes significam que algumas ou todas as variáveis nos dados têm valores ausentes.

Quais são os diferentes tipos de dados ausentes?

Há três tipos principais de dados ausentes. Completamente ausente ao acaso (MCAR), ausente ao acaso (MAR) e ausente não ao acaso (MNAR)

Como lidar com dados ausentes?

Essas abordagens podem ser adotadas para lidar com valores ausentes: imputação de média, mediana, modo, imputação de amostra aleatória e imputações múltiplas. A lista não é exaustiva, e cada um desses métodos tem prós e contras.

Por que os dados ausentes são importantes?

É importante considerá-los porque eles podem afetar o desempenho de seus modelos de aprendizado de máquina e influenciar as conclusões derivadas de todas as análises estatísticas dos dados, levando a empresa a tomar decisões erradas.

Temas

Principais cursos

Course

Dealing with Missing Data in Python

4 hr
22K
Learn how to identify, analyze, remove and impute missing data in Python.
See DetailsRight Arrow
Start Course
Veja MaisRight Arrow
Relacionado

blog

10 habilidades essenciais em Python que todos os cientistas de dados devem dominar

Todos os cientistas de dados precisam ter experiência em Python, mas quais habilidades são as mais importantes para eles dominarem? Descubra as dez habilidades mais importantes em Python no último resumo.

Thaylise Nakamoto

9 min

Data Analyst surfing on wave of data

blog

9 Habilidades essenciais do analista de dados: Um guia de carreira abrangente

Aprenda habilidades essenciais de analista de dados, tanto técnicas quanto interpessoais, desde programação em Python até comunicação eficaz, para avançar em sua carreira.
Matt Crabtree's photo

Matt Crabtree

9 min

blog

Mais de 60 projetos Python para todos os níveis de conhecimento

60 ideias de projetos de ciência de dados que os cientistas de dados podem usar para criar um portfólio sólido, independentemente de sua especialização.
Bekhruz Tuychiev's photo

Bekhruz Tuychiev

16 min

tutorial

21 ferramentas essenciais do Python

Aprenda sobre as ferramentas Python essenciais para o desenvolvimento de software, raspagem e desenvolvimento da Web, análise e visualização de dados e aprendizado de máquina.
Abid Ali Awan's photo

Abid Ali Awan

6 min

tutorial

Entendendo o desvio de dados e o desvio de modelo: Detecção de deriva em Python

Navegue pelos perigos do desvio de modelo e explore nosso guia prático para o monitoramento do desvio de dados.
Moez Ali 's photo

Moez Ali

9 min

tutorial

Tutorial de manipulação de dados categóricos de aprendizado de máquina com Python

Aprenda os truques comuns para lidar com dados categóricos e pré-processá-los para criar modelos de aprendizado de máquina!
Moez Ali's photo

Moez Ali

28 min

See MoreSee More