pytorch matmul を実行すると、次のエラーがスローされます。
Traceback (most recent call last):
File "/home/omrastogi/Desktop/Side/One-Class-Classification-Customer-Complaints/pattern.py", line 71, in <module>
print(obj.infer(list([df.text[0]]), list([df.reason[0]])))
File "/home/omrastogi/Desktop/Side/One-Class-Classification-Customer-Complaints/pattern.py", line 45, in infer
cos_sm = self.batch_cosine_similarity(enc1, enc2)
File "/home/omrastogi/Desktop/Side/One-Class-Classification-Customer-Complaints/pattern.py", line 51, in batch_cosine_similarity
dot_prd = torch.matmul(inp1, inp2.transpose(0, 1))
RuntimeError: "addmm_impl_cpu_" not implemented for 'Half'
入力1 --> [1256]
inp2 --> [1256]
ベストアンサー1
オペランドのデータ型が float16 であったためにエラーが発生していました。これを float32 に戻すと問題は解決しました。float16 は GPU 実装専用だと思います。