PyTorch中torch.nn.functional.cosine_similarity使用詳解
概述
根據(jù)官網(wǎng)文檔的描述,其中 dim表示沿著對應(yīng)的維度計算余弦相似。那么怎么理解呢?
首先,先介紹下所謂的dim:
a = torch.tensor([[ [1, 2], [3, 4] ], [ [5, 6], [7, 8] ] ], dtype=torch.float)
print(a.shape)
"""
[
[
[1, 2],
[3, 4]
],
[
[5, 6],
[7, 8]
]
]
"""
假設(shè)有2個矩陣:[[1, 2], [3, 4]] 和 [[5, 6], [7, 8]], 求2者的余弦相似。
按照dim=0求余弦相似:
import torch.nn.functional as F input1 = torch.tensor([[1, 2], [3, 4]], dtype=torch.float) input2 = torch.tensor([[5, 6], [7, 8]], dtype=torch.float) output = F.cosine_similarity(input1, input2, dim=0) print(output)
結(jié)果如下:
tensor([0.9558, 0.9839])
那么,這個數(shù)值是怎么得來的?是按照

具體求解如下:
print(F.cosine_similarity(torch.tensor([1,3], dtype=torch.float) , torch.tensor([5,7], dtype=torch.float), dim=0)) print(F.cosine_similarity(torch.tensor([2,4], dtype=torch.float) , torch.tensor([6,8], dtype=torch.float), dim=0))
運(yùn)行結(jié)果如下:
tensor(0.9558)tensor(0.9839)
可以用scipy.spatial進(jìn)一步佐證:
from scipy import spatial dataSetI = [1,3] dataSetII = [5,7] result = 1 - spatial.distance.cosine(dataSetI, dataSetII) print(result)
運(yùn)行結(jié)果如下:
0.95577900872195
同理:
dataSetI = [2,4] dataSetII = [6,8] result = 1 - spatial.distance.cosine(dataSetI, dataSetII) print(result)
運(yùn)行結(jié)果如下:
0.9838699100999074
按照dim=1求余弦相似:
output = F.cosine_similarity(input1, input2, dim=1) print(output)
運(yùn)行結(jié)果如下:
tensor([0.9734, 0.9972])
同理,用用scipy.spatial進(jìn)一步佐證:
dataSetI = [1,2] dataSetII = [5,6] result = 1 - spatial.distance.cosine(dataSetI, dataSetII) print(result)
運(yùn)行結(jié)果:0.973417168333576
dataSetI = [3,4] dataSetII = [7,8] result = 1 - spatial.distance.cosine(dataSetI, dataSetII) print(result)
運(yùn)行結(jié)果:
0.9971641204866132
結(jié)果與F.cosine_similarity相符合。
補(bǔ)充:給定一個張量,計算多個張量與它的余弦相似度,并將計算得到的余弦相似度標(biāo)準(zhǔn)化。
import torch
def get_att_dis(target, behaviored):
attention_distribution = []
for i in range(behaviored.size(0)):
attention_score = torch.cosine_similarity(target, behaviored[i].view(1, -1)) # 計算每一個元素與給定元素的余弦相似度
attention_distribution.append(attention_score)
attention_distribution = torch.Tensor(attention_distribution)
return attention_distribution / torch.sum(attention_distribution, 0) # 標(biāo)準(zhǔn)化
a = torch.FloatTensor(torch.rand(1, 10))
print('a', a)
b = torch.FloatTensor(torch.rand(3, 10))
print('b', b)
similarity = get_att_dis(target=a, behaviored=b)
print('similarity', similarity)a tensor([[0.9255, 0.2194, 0.8370, 0.5346, 0.5152, 0.4645, 0.4926, 0.9882, 0.2783,
0.9258]])
b tensor([[0.6874, 0.4054, 0.5739, 0.8017, 0.9861, 0.0154, 0.8513, 0.8427, 0.6669,
0.0694],
[0.1720, 0.6793, 0.7764, 0.4583, 0.8167, 0.2718, 0.9686, 0.9301, 0.2421,
0.0811],
[0.2336, 0.4783, 0.5576, 0.6518, 0.9943, 0.6766, 0.0044, 0.7935, 0.2098,
0.0719]])
similarity tensor([0.3448, 0.3318, 0.3234])
總結(jié)
到此這篇關(guān)于PyTorch中torch.nn.functional.cosine_similarity使用的文章就介紹到這了,更多相關(guān)PyTorch torch.nn.functional.cosine_similarity使用內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
聊聊Numpy.array中[:]和[::]的區(qū)別在哪
這篇文章主要介紹了在Numpy.array中[:]和[::]的區(qū)別說明,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教2021-05-05
使用python創(chuàng)建Excel工作簿及工作表過程圖解
這篇文章主要介紹了使用python創(chuàng)建Excel工作簿及工作表,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下2020-05-05
一文學(xué)會如何將Python打包后的exe還原成.py
反編譯的第一步就是要將exe文件轉(zhuǎn)換成py文件,下面這篇文章主要給大家介紹了如何通過一文學(xué)會將Python打包后的exe還原成.py的相關(guān)資料,文中通過實(shí)例代碼介紹的非常詳細(xì),需要的朋友可以參考下2022-11-11
python實(shí)現(xiàn)跨進(jìn)程(跨py文件)通信示例
本文主要介紹了python實(shí)現(xiàn)跨進(jìn)程(跨py文件)通信示例,文中通過示例代碼介紹的非常詳細(xì),具有一定的參考價值,感興趣的小伙伴們可以參考一下2022-03-03
關(guān)于scipy.optimize函數(shù)使用及說明
這篇文章主要介紹了關(guān)于scipy.optimize函數(shù)使用及說明,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教2022-12-12
利用Python如何將數(shù)據(jù)寫到CSV文件中
在數(shù)據(jù)分析中經(jīng)常需要從csv格式的文件中存取數(shù)據(jù)以及將數(shù)據(jù)寫書到csv文件中。下面這篇文章主要給大家介紹了關(guān)于利用Python如何將數(shù)據(jù)寫到CSV文件中的相關(guān)資料,文中通過示例代碼介紹的非常詳細(xì),需要的朋友可以參考下2018-06-06
Python實(shí)戰(zhàn)之利用Geopandas算出每個省面積
GeoPandas是一個基于pandas,針對地理數(shù)據(jù)做了特別支持的第三方模塊。本文將利用GeoPandas計算出每個省的面積,感興趣的小伙伴快跟隨小編一起學(xué)習(xí)一下吧2021-12-12
PHP實(shí)現(xiàn)發(fā)送和接收J(rèn)SON請求
本篇文章給大家分享了PHP實(shí)現(xiàn)發(fā)送和接收J(rèn)SON請求的詳細(xì)方法和實(shí)例代碼,有興趣的朋友可以參考學(xué)習(xí)下。2018-06-06

