深度学习之线性回归——2020.2.13
线性回归输出是一个连续值,因此适用于回归问题。回归问题在实际中很常见,如预测房屋价格、气温、销售额等连续值的问题。与回归问题不同,分类问题中模型的最终输出是一个离散值。我们所说的图像分类、垃圾邮件识别、疾病检测等输出为离散值的问题都属于分类问题的范畴。softmax回归则适用于分类问题。 由于线性回归和softmax回归都是单层神经网络,它们涉及的概念和技术同样适用于大多数的深度学习模型。本文将首先以线性回归为例,介绍大多数深度学习模型的基本要素和表示方法。 一、线性回归的基本要素 例如,一个
opencv:图像去噪(椒盐噪声)
#include <opencv2/opencv.hpp>
#include <iostream>
using namespace cv;
using namespace std;
void add_salt_and_pepper_noise(Mat &image);
void add_gaussian_noise(Mat &image);
int main(int argc, char** argv)
{
Mat src = imread("f:/images/lena.jpg
opencv:边缘保留滤波
EPF滤波概述 均值与滤波的缺点:并没有考虑中心像素点对整个输出像素的贡献,实际上锚定的那个点贡献应该是最大的 高斯滤波的缺点:当边缘值梯度很大的时候,应减少中心像素点的权重,而高斯滤波没有考虑 边缘保留滤波: 高斯双边 均值迁移 局部均方差 高斯双边滤波 非局部均值滤波 example #include <opencv2/opencv.hpp>
#include <iostream>
using namespace cv;
using namespace std;
void add_sa
从BERT, XLNet, RoBERTa到ALBERT
原文地址:https://zhuanlan.zhihu.com/p/84559048 拜读贪心科技李文哲老师的文章,我做个笔记。 摘抄记录如下: 谷歌Lab近日发布了一个新的预训练模型"ALBERT"全面在SQuAD 2.0、GLUE、RACE等任务上超越了BERT、XLNet、RoBERTa再次刷新了排行榜!ALBERT是一种轻量版本的BERT,利用更好的参数来训练模型,但是效果却反而得到了很大提升!ALBERT的核心思想是采用了两种减少模型参数的方法,比BERT占用的内存空间小很多,同时极
Django ORM操作练习
表关系: from django.db import models
# Create your models here.
class Author(models.Model):
nid = models.AutoField(primary_key=True)
name = models.CharField(max_length=32)
age = models.IntegerField()
# 与AuthorDetail建立一对一的关系
autho
Windows 10使用RDP协议登录远程CentOS 7.7
1、相关概念简介:RDP:Remote Desktop Protocol,远程桌面协议xrdp:Microsoft RDP的一种开源实现,它允许以图形化方式控制远程系统2、演示环境:操作系统IPWindows 10 1909 x64192.168.0.100CentOS 7.7 1908 x86_64192.168.0.1213、安装Xfce桌面环境:# yum grouplist #
今日推荐
周排行