StarGAN学习笔记
11 December 2019 20:32 来自 <https://zhuanlan.zhihu.com/p/44563641> StarGAN StarGAN是CVPR2018最新提出来的,用于多领域的图像迁移学习。 论文地址:https://arxiv.org/abs/1711.09020 代码地址(Pytorch):https://github.com/yunjey/StarGAN ----------------------------------------------------
吴裕雄--天生自然python学习笔记:python通过“任务计划程序”实现定时自动下载或更新运行 PM2.5 数据抓取程序数据
在 Windows 任务计划程序中,设置每隔 30 分钟自动抓取 PM2.5 数据,井保存
在 SQLite 数据库中 。 import sqlite3,ast,requests,os
from bs4 import BeautifulSoup
#cur_path=os.path.dirname(__file__) # 取得目前路径
#print(cur_path)
cur_path = 'F:\\'
conn = sqlite3.connect(cur_path +'DataBasePM
hive大表和小表MapJoin关联查询优化
大表和小表关联查询可以采用mapjoin优化查询速度。 那什么是mapjoin呢? 理解MapJoin之前先介绍另一种Join方式,CommonJoin。 我们知道Hive编写SQL语句,Hive会将SQL解析成MapReduce任务。 对于一个简单的关联查询,CommonJoin任务设计Map阶段和Reduce阶段。 Mapper 从连接表中读取数据并将连接的 key 和连接的 value 键值对输出到中间文件中。Hadoop 在所谓的 shuffle 阶段对这些键值对进行排序和合并。Red
深入理解 iptables 和 netfilter 架构
[译] 深入理解 iptables 和 netfilter 架构 Published at 2019-02-18 | Last Update 译者序 本文翻译自 2015 年的一篇英文博客 A Deep Dive into Iptables and Netfilter Architecture 。 这篇对 iptables 和 netfilter 的设计和原理介绍比较全面,美中不足的是没有那张 内核协议栈各 hook 点位置和 iptables 规则优先级的经典配图,这里补充如下(来自 Wik
通过apiservice反向代理访问service
第一种:NodePort类型
type: NodePort
ports:
- port: 80
targetPort: 80
nodePort: 30008
第二种:ClusterIP类型
type: ClusterIP
ports:
- port: 80
targetPort: 80
http://10.0.0.11:8080/api/v1/proxy/namespaces/命令空间/services/s
[译] NAT - 网络地址转换(2016)
[译] NAT - 网络地址转换(2016) Published at 2019-02-17 | Last Update 译者序 本文翻译自 2016 年的一篇英文博客 NAT - Network Address Translation 。 由于译者水平有限,本文不免存在遗漏或错误之处。如有疑问,请查阅原文。 以下是译文。 1 绪论 网络地址转换通常涉及“在 IP 包经过路由器或防火墙的时候,修改其源和/或目的地址”( Wikipedia: NAT)。 本文将介绍什么是 NAT、如何使用 NA
记录一次tomcat问题排查记录:org.apache.tomcat.util.bcel.classfile.ClassFormatException: Invalid byte tag in constant pool: 19
最近项目升级jdk,从jdk7 升级到 jdk8,本地已经自测完成了,需要部署到测试环境,测试环境已经装好 jdk8 了,但是tomcat 的版本还是 7。不过,据我之前了解,tomcat7是可以运行JDK8编译的web工程的,只要tomcat的运行环境的JDK是1.8即可。但是不能有比JDK1.8还要新的特性。所以最终决定不升级 tomcat 版本。 等我把项目部署到 测试环境 tomcat 下后,项目是可以跑起来的且能正常运行,但是在项目启动过程中,报了一堆错: SEVERE: Unabl
Linux12月11日作业
1.使用pwd和cd命令来确定和切换目录(详见linux系统管理p43-p46) (1)掌握pwd命令的功能:确定现在所在的工作目录。 (2)掌握cd命令的功能:切换当前目录。 (3)掌握“cd”命令:进入上一级目录。 (4)掌握“cd”命令:切换到用户的家目录。 (5)掌握“cd”命令:同cd~。也可切换到用户的家目录。 (6)掌握“cd-”命令:切换到用户之前的工作目录。 (7)掌握“cd目录名”命令:切换到指定的目录。 2.使用is命令列出目录中的内容。 (1)掌握is命令的功能:列出当
关于宽搜BFS广度优先搜索的那点事
以前一直知道深搜是一个递归栈,广搜是队列,FIFO先进先出LILO后进后出啥的。DFS是以深度作为第一关键词,即当碰到岔道口时总是先选择其中的一条岔路前进,而不管其他岔路,直到碰到死胡同时才返回岔道口并选择其他岔路。接下来将介绍的广度优先搜索(Breadth First Search, BFS)则是以广度为第一关键词,当碰到岔道口时,总是先一次访问从该岔道口能直接到达的所有节结点,然后再按这些结点被访问的顺序去依次访问它们能直接到达的所有结点,以此类推,直到所有结点都被访问为止。这就跟平静
vue 之img的src是动态渲染时(即 :src=' ' )不显示 踩坑
问题: <img :src="item.image ? `../../assets/image/${item.image}` : ''" alt="image"/> 解决方法: 加上require() 即可 <img :src="item.image ? require(`../../assets/image/${item.image}`) : ''" alt="image"/>
EF中的上下文(DbContext)简介
DbContext是实体类和数据库之间的桥梁,DbContext主要负责与数据交互,主要作用: 1、DbContext包含所有的实体映射到数据库表的实体集(DbSet < TEntity >)。 2、DbContext 将LINQ-to-Entities查询转换为SQL查询并将其发送到数据库。 3、更改跟踪: 它跟踪每个实体从数据库中查询出来后发生的修改变化。 4、持久化数据: 它也基于实体状态执行插入、更新和删除操作到数据库中。 DbContext中的DbSet DbSet表示上下文中指定类
dashboard服务
1.上传镜像,并导入,打标签 2.创建dashboard的deployment和service apiVersion: extensions/v1beta1
kind: Deployment
metadata:
# Keep the name in sync with image version and
# gce/coreos/kube-manifests/addons/dashboard counterparts
name: kubernetes-dashboard-latest
Centos7 zabbix4.0安装
Centos7zabbix4.0安装rpm-Uvhhttps://repo.zabbix.com/zabbix/4.0/rhel/7/x86_64/zabbix-release-4.0-2.el7.noarch.rpmyumcleanall2.yuminstallzabbix-server-mysqlzabbix-web-mysqlzabbix-agent3.yumgroupinstall-yma
帮助职场人快速成长的3种工作方法
刚步入职场的“小白”一开始总是干劲十足,但是过一段时间,那些每天都开不完的会和写不完的策划就会渐渐磨灭激情,每天忙不说,还出不了成果,反观那些职场前辈们,看似轻轻松松,却能产出让人眼前一亮的成绩。
2019.12.11 杨鑫蕊Linux笔记
1.掌握pwd命令的功能:确定现在所在的工作日录 2.掌握cd命令的功能;切换当前目录 3.掌握"cd ..“命令;进入上一级目录 I 4.掌握"cd~''命令:切换到用户的家目录 5.掌握“cd''命令:同cd~,也可切换到用户的家目录 6.掌握"cd -"命令;切换到用户之前的工作目录 7.掌握"cd 目录名"命令:切换到指定的目录 (1)掌握ls命令的功能:列出当前目录(默认为当前日录)或指定目录中的内容 (2)掌握ls -a命令:列出目录下的所有文件,包括以“.”开头的隐含文件 (3)
Scrapy爬虫Demo 爬取资讯分类
爬取新浪网导航页所有下所有大类、小类、小类里的子链接,以及子链接页面的新闻内容。 效果演示图: items.py import scrapy
import sys
reload(sys)
sys.setdefaultencoding("utf-8")
class SinaItem(scrapy.Item):
# 大类的标题 和 url
parentTitle = scrapy.Field()
parentUrls = scrapy.Field()
今日推荐
周排行