Skip to content
Tutoriais
Python
nn.Linear in PyTorch: Clearly Explained

Introdução ao nn.Linear no PyTorch: explicação clara

A aprendizagem profunda revolucionou o campo da inteligência artificial, possibilitando que as máquinas imitem a inteligência humana de maneira sem precedentes. No centro dessa revolução está o PyTorch, uma biblioteca popular de aprendizado de máquina de código aberto que oferece dois recursos de alto nível: computação em tensores com aceleração GPU e redes neurais profundas construídas em um sistema de autograduação baseado em fita. Um dos componentes fundamentais do PyTorch é o nn.Linear, um módulo que aplica uma transformação linear aos dados de entrada. Este artigo fornece um guia abrangente para entender o nn.Linear no PyTorch, seu papel em redes neurais e como ele se compara a outros métodos de transformação linear.

nn.Linear é uma camada linear usada em redes neurais que aplica uma transformação linear aos dados de entrada usando pesos e viés. É um componente crítico na arquitetura de muitos modelos de aprendizado profundo. Este guia irá se aprofundar nos detalhes do nn.Linear, incluindo sua definição, como ele funciona e suas aplicações em aprendizado profundo. Também abordaremos perguntas frequentes e consultas relacionadas, fornecendo uma compreensão completa deste módulo essencial do PyTorch.

Quer criar rapidamente Visualizações de Dados a partir de um Dataframe Pandas Python sem código?

PyGWalker é uma biblioteca Python para Análise Exploratória de Dados com Visualização. O PyGWalker (opens in a new tab) pode simplificar a análise de dados e o fluxo de trabalho de visualização de dados no seu Jupyter Notebook, transformando seu dataframe pandas (e dataframe polars) em uma interface de usuário semelhante ao Tableau para exploração visual.

PyGWalker para visualização de dados (opens in a new tab)

Compreendendo o nn.Linear no PyTorch

O que é nn.Linear?

No contexto de redes neurais, o nn.Linear é um módulo fornecido pelo PyTorch que aplica uma transformação linear aos dados de entrada. Essa transformação é representada pela fórmula y = xA^T + b, onde x é a entrada, A é o peso, b é o viés e y é a saída.

O módulo nn.Linear possui dois parâmetros: in_features e out_features, que representam o número de características de entrada e saída, respectivamente. Quando um objeto nn.Linear é criado, ele inicializa aleatoriamente uma matriz de peso e um vetor de viés. O tamanho da matriz de peso é out_features x in_features e o tamanho do vetor de viés é out_features.

import torch
from torch import nn
 
## Criando um objeto para a classe linear
linear_layer = nn.Linear(in_features=3, out_features=1)

No trecho de código acima, criamos uma instância de nn.Linear com três características de entrada e uma característica de saída. Isso resulta em uma matriz de peso 3x1 e um vetor de viés 1x1.

Como o nn.Linear funciona?

O nn.Linear funciona realizando uma multiplicação de matriz dos dados de entrada com a matriz de peso e adicionando o termo de viés. Essa operação é aplicada a cada camada em uma rede neural alimentada para frente.

## Passando a entrada para a camada linear
saída = linear_layer(torch.tensor([1,2,3], dtype=torch.float32))
print(saída)

No trecho de código acima, passamos um tensor de tamanho 3 (correspondente ao número de características de entrada) para a linear_layer. A saída é um tensor de tamanho 1 (correspondente ao número de características de saída), que é o resultado da transformação linear.

Inicializando pesos e viés

Os pesos e viés em nn.Linear são parâmetros que o modelo aprende durante o treinamento. Inicialmente, eles são definidos com valores aleatórios. Você pode visualizar os pesos e viés usando os atributos weight (peso) e bias (viés).

## Para ver os pesos e viés
print(linear_layer.weight)
print(linear_layer.bias)

O trecho de código acima imprime a matriz de peso e o vetor de viés da camada nn.Linear.

Embora o PyTorch inicialize esses parâmetros aleatoriamente, você também pode defini-los manualmente ou usar diferentes métodos de inicialização. Por exemplo, você pode usar o módulo torch.nn.init para aplicar métodos de inicialização específicos aos pesos e viés. Aqui está um exemplo de uso da inicialização Xavier uniforme:

import torch.nn.init as init
 
## Inicializa os pesos usando a inicialização Xavier uniforme
init.xavier_uniform_(linear_layer.weight)
 
## Inicializa o viés como zero
init.zeros_(linear_layer.bias)

No trecho de código acima, usamos a função xavier_uniform_ do torch.nn.init para inicializar os pesos da nossa linear_layer. O viés é inicializado como zero usando a função zeros_. Esses métodos de inicialização podem ajudar a melhorar o processo de aprendizagem da rede neural.

Comparando nn.Linear e nn.Conv2d

nn.Linear e nn.Conv2d são ambos módulos fundamentais no PyTorch usados para diferentes finalidades. Enquanto nn.Linear aplica uma transformação linear aos dados de entrada, nn.Conv2d aplica uma convolução 2D a um sinal de entrada composto por diversos planos de entrada.

A principal diferença entre nn.Linear e nn.Conv2d está em sua aplicação. nn.Linear é tipicamente usado em camadas totalmente conectadas, onde cada neurônio de entrada está conectado a cada neurônio de saída. Por outro lado, nn.Conv2d é usado em camadas convolucionais, que são principalmente usadas em redes neurais convolucionais (CNNs) para tarefas como processamento de imagens.

Em termos de seus parâmetros, nn.Linear requer o número de características de entrada e o número de características de saída. nn.Conv2d requer o número de canais de entrada (ou profundidade da entrada), o número de canais de saída e o tamanho do kernel.

Aplicações de nn.Linear em Aprendizado Profundo

nn.Linear é um módulo versátil no PyTorch e encontra inúmeras aplicações em aprendizado profundo. Aqui estão alguns exemplos:

  1. Multi-Layer Perceptron (MLP): MLPs são um tipo de rede neural feed-forward que consistem em pelo menos três camadas de nós: uma camada de entrada, uma camada oculta e uma camada de saída. Cada camada está totalmente conectada à próxima e nn.Linear é usado para implementar essas conexões.

  2. Regressão Linear: Em tarefas de regressão linear, nn.Linear pode ser usado para implementar a equação linear que o modelo aprende.

  3. Transformação de Dados: nn.Linear pode ser usado para transformar dados de entrada em uma dimensão mais alta para tarefas mais complexas.

  4. Modelos de Aprendizado Profundo: Muitos modelos de aprendizado profundo, como autoencoders, usam nn.Linear em sua arquitetura.

No próximo segmento, entraremos em mais detalhes sobre o uso de nn.Linear em um modelo PyTorch, incluindo como inicializar pesos e viéses, e como usá-lo em um modelo. Também forneceremos exemplos de suas aplicações em aprendizado profundo.

Usando nn.Linear em um Modelo PyTorch

Incorporar nn.Linear em um modelo PyTorch envolve definir a camada no construtor do modelo e aplicá-la aos dados de entrada no método forward. Aqui está um exemplo de uma rede neural feed-forward simples que usa nn.Linear:

class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.fc1 = nn.Linear(10, 5)
        self.fc2 = nn.Linear(5, 2)
 
    def forward(self, x):
        x = F.relu(self.fc1(x))
        x = self.fc2(x)
        return x
 
# Criar uma instância da rede
net = Net()

No trecho de código acima, definimos uma rede Net com duas camadas lineares (fc1 e fc2). O método forward define a passagem direta da entrada pela rede. A função F.relu aplica a função de ativação ReLU à saída da primeira camada linear antes de passá-la para a segunda camada linear.

Erros Comuns e Soluções para nn.Linear no PyTorch

Ao usar nn.Linear, você pode encontrar alguns erros comuns. Aqui estão alguns deles, juntamente com suas soluções:

  1. Tamanho de Entrada Incompatível: O tamanho de entrada deve ser compatível com o parâmetro in_features de nn.Linear. Se eles não forem compatíveis, você receberá um erro em tempo de execução. Para corrigir isso, verifique se o tamanho do tensor de entrada corresponde ao parâmetro in_features.

  2. Tamanhos Incorretos de Peso e Viés: A matriz de peso e o vetor de viés devem ter tamanhos que correspondam aos parâmetros in_features e out_features. Se eles não corresponderem, você receberá um erro em tempo de execução. Para corrigir isso, verifique se os tamanhos da matriz de peso e do vetor de viés estão corretos.

  3. Usando nn.Linear com Entrada 3D: nn.Linear espera uma entrada 2D, mas às vezes você pode passar erroneamente uma entrada 3D (por exemplo, de uma camada convolucional em uma CNN). Isso resultará em um erro em tempo de execução. Para corrigir isso, você pode usar torch.flatten ou view para remodelar a entrada para 2D.

Conclusão

Em conclusão, nn.Linear é um componente fundamental no PyTorch e aprendizado profundo. Ele desempenha um papel crucial na implementação de transformações lineares em redes neurais e entendê-lo pode ajudar significativamente na criação e solução de problemas de modelos de aprendizado profundo. Seja você um iniciante começando com o PyTorch ou um praticante experiente, dominar nn.Linear é uma habilidade valiosa em seu conjunto de ferramentas de aprendizado profundo.

Perguntas Frequentes

Qual é o propósito de um vetor de viés em nn.Linear?

O vetor de viés em nn.Linear permite que o modelo ajuste a saída da transformação linear ao longo do eixo y. Isso pode ser crucial para ajustar o modelo aos dados, especialmente quando os dados não estão centralizados na origem. Sem o viés, o modelo sempre passaria pela origem, o que poderia limitar sua capacidade de ajustar os dados.

Como inicializar pesos e viéses para uma camada linear no PyTorch?

Pesos e viéses para uma camada linear no PyTorch podem ser inicializados quando um objeto nn.Linear é criado. Por padrão, eles são inicializados com valores aleatórios. No entanto, você pode defini-los manualmente ou usar diferentes métodos de inicialização fornecidos pelo módulo torch.nn.init.

Qual é a diferença entre nn.Linear e nn.Conv2d no PyTorch?

nn.Linear e nn.Conv2d são usados para implementar camadas em redes neurais, mas têm propósitos diferentes. nn.Linear aplica uma transformação linear aos dados de entrada e é tipicamente usado em camadas totalmente conectadas. Por outro lado, nn.Conv2d aplica uma convolução 2D a um sinal de entrada e é principalmente usado em camadas convolucionais para tarefas como processamento de imagens.