您好!我对在使用社交网络和兴趣网络更新用户表示过程中,注意力分数的计算有些疑问。 首先, <img width="159" alt="1662013313836" src="https://user-images.githubusercontent.com/54872672/187845739-48e6e09d-f32d-471b-84c7-f5465c5dc2ff.png"> <img width="561" alt="1662013390247" src="https://user-images.githubusercontent.com/54872672/187845861-365cb136-3734-4e1d-9e44-cb6d7c488936.png"> <img width="100" alt="1662013597406" src="https://user-images.githubusercontent.com/54872672/187846398-956f61a6-e39a-4042-91d0-061aad63f41d.png"> 从以上代码可以看出 gama^(k+1)_(a1) =1/2* self.consumed_items_attention,gama^(k+1)_(a2) =1/2* self.social_neighbors_attention。gama^(k+1)_(a1)和gama^(k+1)_(a2)也确实是利用了使用到MLP的GAT实现的。 我看到您论文中提及, <img width="86" alt="1662013776145" src="https://user-images.githubusercontent.com/54872672/187846908-a658ae0d-8d7f-496c-8797-903285829f1e.png"> <img width="100" alt="1662013813772" src="https://user-images.githubusercontent.com/54872672/187846921-2daefe5e-4480-41a1-9d52-becbd3709d48.png"> <img width="98" alt="1662013823848" src="https://user-images.githubusercontent.com/54872672/187846950-b28e4177-b372-4e12-817d-daa199ecc30a.png"> 说alpha^(k+1)_(ab)和beta^(k+1)_(ai)的计算过程也是和gama的计算过程类似,使用MLP借助两个embedding得到。但是,我去看了源码中beta^(k+1)_(ai)的计算过程,我发现,beta与gama的计算过程存在差别,感觉并没有借助两个embedding,倒像是随机产生的。 <img width="497" alt="1662014004306" src="https://user-images.githubusercontent.com/54872672/187847364-2c10b64c-3677-4210-b269-6c80d93af357.png"> 期待您的回复!
您好!我对在使用社交网络和兴趣网络更新用户表示过程中,注意力分数的计算有些疑问。



首先,
从以上代码可以看出 gama^(k+1)(a1) =1/2* self.consumed_items_attention,gama^(k+1)(a2) =1/2* self.social_neighbors_attention。gama^(k+1)(a1)和gama^(k+1)(a2)也确实是利用了使用到MLP的GAT实现的。
我看到您论文中提及,




说alpha^(k+1)(ab)和beta^(k+1)(ai)的计算过程也是和gama的计算过程类似,使用MLP借助两个embedding得到。但是,我去看了源码中beta^(k+1)_(ai)的计算过程,我发现,beta与gama的计算过程存在差别,感觉并没有借助两个embedding,倒像是随机产生的。
期待您的回复!