我的自主基础理论和技术创新艰辛之路(1)

为了给以后做自主基础理论和核心技术创新者少走一点弯路,我将分几期,将自己的经历和十几年的研究历程做一个分享。这其中包括如何找到新的概率模型,如何形成一种核心编码算法,如何艰难的市场化、产品化,甚至是什么让我坚定研究目标等等。

首先,自我介绍一下,我叫王杰林,是一名随机过程,概率模型以及编码算法研究者,现在开了一家公司(湖南瑞利德信息科技有限公司)。

“基础研究是科学体系的源头,是所有技术问题的总机关。”2007年大学毕业后,在珠海时代互联工作,我接手第一份工作就是网络数据抓取,当时我第一次接触到信息领域基础算法(爬虫算法)。2009年又因为动漫游戏素材数据很大,于是需要对JPG算法进行学习和分析,接触到DCT和哈夫曼编码,从此开始研究概率模型和信息论。

2009年的一次实验中偶然发现:当二进制序列中呈现某种规律,可以所有符号的概率之和大于一的概率模型进行无损编码。为了印证此结果,我通过上千次反复运算最终得出结论:加权概率模型(某一时刻带编码的所有符号概率之和不等于一)也能无损的压缩具有某些特征的二进制序列,从而开启了加权概率模型编码算法的研究。2009年到2014年的研究期间,系统和深入的学习了信源变换算法(傅里叶变换、DCT、小波等数据变换算法),信源分析提取类算法(粒子群算法、遗传算法、奇异值分解、主成分分析、等高线算法、四叉树分解等),信源编码(香农费诺码、哈夫曼编码、算术编码、字典、行程等),并且对相关的算法进行了优化,同时研究加权概率模型编码算法与这些算法的差异,优势等。

于2014年加权概率模型编码算法的基础理论基本成形,通过2年的实验和研发,于2016年申报了3个核心专利《 数据处理方法- 201610531403.8,106445890B》《 数据编码方法和数据解码方法及其系统- 201610130306.8》《数据处理方法及装置- 201610701324.7》。这些专利均是用于数据无损压缩的基础算法,且后两个专利分别对应于两种基本的统计模型——静态加权统计模型和自适应加权统计模型。

从2017年,我将理论从加权统计模型延申到了加权概率模型,并申请了一个核心基础理论的发明专利《一种无损的概率模型变换方法 - 201711007166.6》,该专利是加权统计模型和加权概率模型的核心理论方法专利,涉及多项我推导的定理和公式。2018年由加权概率模型又申请了核心算法专利《一种信道编码和解码方法- 201811154122.0》(是唯一一个由我国基础理论到信道检错纠错算法的核心专利,目前被学术界和行业称之为杰林码)《 编码解码方法、系统、可读存储介质及计算机设备- 201811154102.3》《 编码方法、解码方法、编码设备、解码设备、存储介质及终端-201811342308.9》《数据编码、解码方法及装置- 201811153932.4》。

2019年我的相关算法已经在产品上使用,基于物联网和工业互联网的二代算法(加密+检错)已经申报专利,并且实现了FPGA(芯片化步骤的重要一环),MCU和DSP等芯片应用,目前部分图像视频压缩算法已经通过了海信芯片公司、工信部微电子研究所的检测以及芯恩公司(中国半导体之父张汝京),并且和芯恩公司达成合作协议。

发布了27 篇原创文章 · 获赞 38 · 访问量 7561

猜你喜欢

转载自blog.csdn.net/wjlxueshu/article/details/100551810