矩阵的点乘和叉乘--深度学习应用场景针对有矩阵基础的解惑版

it2026-03-16  3

矩阵的点乘和叉乘–深度学习应用场景针对有矩阵基础的解惑版

   

大学刚学完矩阵论,一搞深度学习,代码.dot 和 矩阵* 傻傻分不清了。这里就帮各位大佬区分一下.    

先讲叉乘

规则大家都知道,讲个记忆。叉乘吗,自然需要行列交叉相乘的形式才行的(^_−)☆   学过矩阵运算的都知道,我们其实默认说的矩阵乘法就是这个所谓的叉乘 就是两个矩阵形状对的上,才能正确就行叉乘运算,也就是行与列对应相乘最后相加,放在对应位置。

举个栗子o(´^`)o: 形状上: (NM)(M,Q)=(N,Q)

实例:

(32) * (23) = (3*3) 由于默认各位大佬都是有矩阵基础的,具体规则大佬们回忆一下就好。

在深度学习中,反而这种运算并不是太多,这个运算主要是用在矩阵形状变换(博主是在NLP自然语言处理,分词里面用到)   你想,如果用在CV里面,一个图片的行乘与一个图片的列在加起来,有何物理意义?    

点乘

规则大家都知道,讲个记忆。点乘吗,自然是矩阵“点”对应相乘的形式(^_−)☆

代码上一般是.dot(A,B),A,B矩阵自然要形式完全一样才可以

举个栗子o(´^`)o: 由于矩阵运算大大加快了,大数据时代的数据处理速度,对矩阵应点位相运算的形式具有实际物理意义,因此点乘的形式使用反而更多

对于大佬们,本想简单点,两句话搞定,最后想了想还是加入了和深度学习的联系,这样小伙伴们能更好的区分这两种矩阵运算的形式ヾ(=・ω・=)o

人工智能路漫漫,一起共勉(๑>ڡ<)☆

最新回复(0)