输入\输出优化
对数字的读入,编程中有常用的
和
。
但读入的数据较大的时候,
读入的速度 远低于
(差距不小)
一个优美的算法题讲究效率,但有不少题目的输入量或输出量太大,导致读入或输出的时间占比较大,这是一个优质题目的缺憾。
众所周知计算机读入字符的速度是较快的,那么我们可以考虑把数字依次拆分成众多字符。
对于大小在
范围的数字,我们读入的字符至少为其数位长度。对于读入的第一个字符
(数字),其对原来数字大小的贡献是
(
为 数位长度再
)。同理,读入的第二个字符
对原来数字大小的贡献是
。下一位数字同理……
由此,当读入的字符为数字时,更新当前记录的数字为 当前数字
。
当读入空格或者换行时,当前记录的数字即为 原来要读入的数字。
多说无益。自己品代码,慢慢品。
int read()
{
int rt = 0, in = 1; char ch = getchar();
while(ch < '0' || ch > '9') {if(ch == '-') in = -1; ch = getchar();}
while(ch >= '0' && ch <= '9') {rt = rt * 10 + ch - '0'; ch = getchar();}
return rt * in;
}
读入用
来加速 读入。
那么输出用
来加速 输出。
没什么难点,递归找到数字的最高位,回溯输出。
注意在递归前注意特判数字是否为负数,要转化成非负数。
void print(int x)
{
if(x < 0) putchar('-'), x = -x;
if(x > 9) print(x / 10);
putchar(x % 10 + '0');
}
优秀的算法题目不会在读入 输出上卡常恶心人的