Pytorch?PyG實現(xiàn)EdgePool圖分類
EdgePool簡介
EdgePool是一種用于圖分類的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)模型。其主要思想是通過 edge pooling 上下采樣優(yōu)化圖像大小,減少空間復(fù)雜度,提高分類性能。
實現(xiàn)步驟
數(shù)據(jù)準(zhǔn)備
一般來講,在構(gòu)建較大規(guī)模數(shù)據(jù)集時,我們都需要對數(shù)據(jù)進(jìn)行規(guī)范、歸一和清洗處理,以便后續(xù)語義分析或深度學(xué)習(xí)操作。而在圖像數(shù)據(jù)集中,則需使用特定的框架或工具庫完成。
# 導(dǎo)入MNIST數(shù)據(jù)集 from torch_geometric.datasets import MNISTSuperpixels # 加載數(shù)據(jù)、劃分訓(xùn)練集和測試集 dataset = MNISTSuperpixels(root='./mnist', transform=Compose([ToTensor(), NormalizeMeanStd()])) data = dataset[0] # 定義超級參數(shù) num_features = dataset.num_features num_classes = dataset.num_classes # 構(gòu)建訓(xùn)練集和測試集索引文件 train_mask = torch.zeros(data.num_nodes, dtype=torch.uint8) train_mask[:60000] = 1 test_mask = torch.zeros(data.num_nodes, dtype=torch.uint8) test_mask[60000:] = 1 # 創(chuàng)建數(shù)據(jù)加載器 train_loader = DataLoader(data[train_mask], batch_size=32, shuffle=True) test_loader = DataLoader(data[test_mask], batch_size=32, shuffle=False)
實現(xiàn)模型
在定義EdgePool模型時,我們需要重新考慮網(wǎng)絡(luò)結(jié)構(gòu)中的上下采樣操作,以便讓整個網(wǎng)絡(luò)擁有更強大的表達(dá)能力,從而學(xué)習(xí)到更復(fù)雜的關(guān)系。
from torch.nn import Linear
from torch_geometric.nn import EdgePooling
class EdgePool(torch.nn.Module):
def __init__(self, dataset):
super(EdgePool, self).__init__()
# 定義輸入與輸出維度數(shù)
self.input_dim = dataset.num_features
self.hidden_dim = 128
self.output_dim = 10
# 定義卷積層、歸一化層和pooling層等
self.conv1 = GCNConv(self.input_dim, self.hidden_dim)
self.norm1 = BatchNorm1d(self.hidden_dim)
self.pool1 = EdgePooling(self.hidden_dim)
self.conv2 = GCNConv(self.hidden_dim, self.hidden_dim)
self.norm2 = BatchNorm1d(self.hidden_dim)
self.pool2 = EdgePooling(self.hidden_dim)
self.conv3 = GCNConv(self.hidden_dim, self.hidden_dim)
self.norm3 = BatchNorm1d(self.hidden_dim)
self.pool3 = EdgePooling(self.hidden_dim)
self.lin = torch.nn.Linear(self.hidden_dim, self.output_dim)
def forward(self, x, edge_index, batch):
x = F.relu(self.norm1(self.conv1(x, edge_index)))
x, edge_index, _, batch, _ = self.pool1(x, edge_index, None, batch)
x = F.relu(self.norm2(self.conv2(x, edge_index)))
x, edge_index, _, batch, _ = self.pool2(x, edge_index, None, batch)
x = F.relu(self.norm3(self.conv3(x, edge_index)))
x, edge_index, _, batch, _ = self.pool3(x, edge_index, None, batch)
x = global_mean_pool(x, batch)
x = self.lin(x)
return x
在上述代碼中,我們使用了不同的卷積層、池化層和全連接層等神經(jīng)網(wǎng)絡(luò)功能塊來構(gòu)建EdgePool模型。其中,每個 GCNConv 層被保持為128的隱藏尺寸;BatchNorm1d是一種旨在提高收斂速度并增強網(wǎng)絡(luò)泛化能力的方法;EdgePooling是一種在 GraphConvolution 上附加的特殊類別,它將給定圖下采樣至其一半的大小,并返回縮小后的圖與兩個跟蹤full-graph-to-pool雙向映射(keep and senders)的 edge index(edgendarcs)。 在這種情況下傳遞 None ,表明 batch 未更改。
模型訓(xùn)練
在定義好 EdgePool 網(wǎng)絡(luò)結(jié)構(gòu)之后,需要指定合適的優(yōu)化器、損失函數(shù),并控制訓(xùn)練輪數(shù)、批量大小與學(xué)習(xí)率等超參數(shù)。同時還要記錄大量日志信息,方便后期跟蹤和駕駛員。
# 定義訓(xùn)練計劃,包括損失函數(shù)、優(yōu)化器及迭代次數(shù)等
train_epochs = 50
learning_rate = 0.01
criterion = nn.CrossEntropyLoss()
optimizer = optim.Adam(edge_pool.parameters(), lr=learning_rate)
losses_per_epoch = []
accuracies_per_epoch = []
for epoch in range(train_epochs):
running_loss = 0.0
running_corrects = 0.0
count = 0.0
for samples in train_loader:
optimizer.zero_grad()
x, edge_index, batch = samples.x, samples.edge_index, samples.batch
out = edge_pool(x, edge_index, batch)
label = samples.y
loss = criterion(out, label)
loss.backward()
optimizer.step()
running_loss += loss.item() / len(train_loader.dataset)
pred = out.argmax(dim=1)
running_corrects += pred.eq(label).sum().item() / len(train_loader.dataset)
count += 1
losses_per_epoch.append(running_loss)
accuracies_per_epoch.append(running_corrects)
if (epoch + 1) % 10 == 0:
print("Train Epoch {}/{} Loss {:.4f} Accuracy {:.4f}".format(
epoch + 1, train_epochs, running_loss, running_corrects))
在訓(xùn)練過程中,我們遍歷了每個批次的數(shù)據(jù),并通過反向傳播算法進(jìn)行優(yōu)化,并更新了 loss 和 accuracy 輸出值。 同時方便可視化與記錄,需要將訓(xùn)練過程中的 loss 和 accuracy 輸出到相應(yīng)的容器中,以便后期進(jìn)行分析和處理。
以上就是Pytorch PyG實現(xiàn)EdgePool圖分類的詳細(xì)內(nèi)容,更多關(guān)于Pytorch PyG EdgePool圖分類的資料請關(guān)注腳本之家其它相關(guān)文章!
相關(guān)文章
Python filter()及reduce()函數(shù)使用方法解析
這篇文章主要介紹了Python filter()及reduce()函數(shù)使用方法解析,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下2020-09-09
PyTorch中的squeeze()和unsqueeze()解析與應(yīng)用案例
這篇文章主要介紹了PyTorch中的squeeze()和unsqueeze()解析與應(yīng)用案例,文章內(nèi)容介紹詳細(xì),需要的小伙伴可以參考一下,希望對你有所幫助2022-03-03
用?Python?腳本實現(xiàn)電腦喚醒后自動拍照并截屏發(fā)郵件通知
這篇文章主要介紹了用?Python?腳本實現(xiàn)電腦喚醒后自動拍照并截屏發(fā)郵件通知,文中詳細(xì)的介紹了代碼示例,具有一定的 參考價值,感興趣的可以了解一下2023-03-03
pandas 使用apply同時處理兩列數(shù)據(jù)的方法
下面小編就為大家分享一篇pandas 使用apply同時處理兩列數(shù)據(jù)的方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-04-04
淺談python中的getattr函數(shù) hasattr函數(shù)
下面小編就為大家?guī)硪黄獪\談python中的getattr函數(shù) hasattr函數(shù)。小編覺得挺不錯的,現(xiàn)在就分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2016-06-06
在pycharm中創(chuàng)建django項目的示例代碼
這篇文章主要介紹了在pycharm中創(chuàng)建django項目的示例代碼,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2020-05-05

