【upc 9541 矩阵乘法】非正解

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/sxy201658506207/article/details/84644943

深度学习算法很大程度上基于矩阵运算。例如神经网络中的全连接本质上是一个矩阵乘法,而卷积运算也通常是用矩阵乘法来实现的。有一些科研工作者为了让神经网络的计算更快捷,提出了二值化网络的方法,就是将网络权重压缩成只用两种值表示的形式,这样就可以用一些 trick 加速计算了。例如两个二进制向量点乘,可以用计算机中的与运算代替,然后统计结果中 1 的个数即可。
然而有时候为了降低压缩带来的误差,只允许其中一个矩阵被压缩成二进制。这样的情况下矩阵乘法运算还能否做进一步优化呢?给定一个整数矩阵A 和一个二值矩阵B,计算矩阵乘法 C=A×B。为了减少输出,你只需要计算 C 中所有元素的的异或和即可。
输入

第一行有三个整数 N,P,M, 表示矩阵 A,B 的大小分别是 N×P,P×M 。
接下来 N 行是矩阵 A 的值,每一行有 P 个数字。第 i+1 行第 j 列的数字为 Ai,j, Ai,j 用大写的16进制表示(即只包含 0~9, A~F),每个数字后面都有一个空格。
接下来 M 行是矩阵 B 的值,每一行是一个长为 P 的 01字符串。第 i+N+1 行第 j 个字符表示 Bj,i 的值。
输出
一个整数,矩阵 C 中所有元素的异或和。
样例输入:
4 3 2
3 4
8 A
F 5
6 7
01
11
10
样例输出
2
提示  2≤N,M≤4096,1≤P≤64,0≤Ai,j<65536,0≤Bi,j≤1.
暴力过的
 

#include <bits/stdc++.h>
#include <iostream>
#include <cstring>
#include <cstdio>
#define X 10005
#define inf 0x3f3f3f3f
#define PI 3.141592653589793238462643383
#define IO  ios::sync_with_stdio(false),cin.tie(0), cout.tie(0);
using namespace std;
typedef long long ll;
const ll mod=1e9+7;
ll A[10000][100];
ll B[100][10000];
int n,p,m;
int main()
{
    scanf("%d%d%d",&n,&p,&m);
        for(int i=1;i<=n;++i)
           for(int j=1;j<=p;++j)
            {
                scanf("%x",&A[i][j]);
            }
            int t;
            for(int i=1;i<=m;++i)
            {
                for(int j=1;j<=p;++j)
                   {
                        scanf("%1d",&t);
                        B[j][i]=t;
                   }
            }
        ll ans=0;
        for(int i=1;i<=n;++i)
        {
            for(int j=1;j<=m;++j)
              {
                  ll ret=0;
                  for(int k=1;k<=p;++k)
                     ret+=A[i][k]*B[k][j];
                ans^=ret;
              }
        }
        printf("%lld\n",ans);
    return 0;
}

优化

猜你喜欢

转载自blog.csdn.net/sxy201658506207/article/details/84644943
UPC