算法的概念
算法(Algorithm) 是计算机处理信息的本质,因为计算机程序本质上是一个算法来告诉计算机确切的步骤来执行一个指定的任务。一般地,当算法在处理信息时,会从输入设备或数据的存储地址读取数据,把结果写入输出设备或某个存储地址供以后再调用。
算法是独立存在的一种解决问题的方法和思想。
算法可以有不同的语言描述实现版本(如C、C++、Python、Java描述等),对于算法而言,实现的语言并不重要,重要的是 思想。
算法的五大特性
- 输入: 算法具有0个或多个输入。
- 输出: 算法至少有1个或多个输出。
- 有穷性: 算法在有限的步骤之后会自动结束而不会无限循环,并且每一个步骤可以在可接受的时间内完成。
- 确定性:算法中的每一步都有确定的含义,不会出现二义性。
- 可行性:算法的每一步都是可行的,也就是说每一步都能够执行有限的次数完成。
算法设计的要求
正确性: 算法至少应该具有输入、输出和加工处理无歧义性、能反映问题的需求、能够得到问题的正确答案。
可读性: 算法设计的另一目的是为了便于阅读、理解和交流。
健壮性: 当输入数据不合法时,算法也能做出相关处理,而不是产生异常或莫名其妙的结果。
时间效率高和存储量低:
时间效率指的是算法的执行时间,存储量需求指的是算法在执行过程中需要的存储空间。设计算法应该尽量满足时间效率高和存储量低的需求。
算法效率衡量
1、事后统计法
该方法通过设计好的测试程序和数据,然后在计算机中运行,接着对运行时间进行比较,耗时少的效率高。
执行时间反应算法效率
对于同一问题,我们给出了两种解决算法,在两种算法的实现中,我们对程序执行的时间进行了测算,发现两段程序执行的时间相差悬殊(214.583347秒相比于0.182897秒),由此我们可以得出结论:实现算法程序的执行时间可以反应出算法的效率,即算法的优劣。
单靠时间值绝对可信吗?
假设我们将第二次尝试的算法程序运行在一台配置古老性能低下的计算机中,情况会如何?很可能运行的时间并不会比在我们的电脑中运行算法一的214.583347秒快多少。
单纯依靠运行的时间来比较算法的优劣并不一定是客观准确的!
程序的运行离不开计算机环境(包括硬件和操作系统),这些客观原因会影响程序运行的速度并反应在程序的执行时间上。但很显然,这种方式有很大缺陷,首先,算法的测试数据需要花时间设计,因为不同的测试数据往往会直接影响运行时间,然后是计算机的硬件也会影响运行时间。这就造成了度量结果的不稳定。
2、事前分析法
由此,事前分析法诞生了,该方法无需运行程序,就能够分析出一个算法的效率。
经过大量分析,前辈们总结出一个算法在计算机上运行时所消耗的时间取决于以下因素:
1.算法采用的策略、方法
2.编译产生的代码质量
3.问题的输入规模
4.机器执行指定的速度
3、时间复杂度与“大O记法”
我们假定计算机执行算法每一个基本操作的时间是固定的一个时间单位,那么有多少个基本操作就代表会花费多少时间单位。算然对于不同的机器环境而言,确切的单位时间是不同的,但是对于算法进行多少个基本操作(即花费多少时间单位)在规模数量级上却是相同的,由此可以忽略机器环境的影响而客观的反应算法的时间效率。
对于算法的时间效率,我们可以用“大O记法”来表示。
“大O记法”: 对于单调的整数函数 f,如果存在一个整数函数 g和实常数 c>0,使得对于充分大的 n总有 f(n)<=c*g(n),就说函数 g是 f的一个渐近函数(忽略常数),记为 f(n)=O(g(n))。也就是说,在趋向无穷的极限意义下,函数 f 的增长速度受到函数 g 的约束,亦即函数 f 与函数 g 的特征相似。
时间复杂度:假设存在函数g,使得算法A处理规模为n的问题示例所用时间为T(n)=O(g(n)),则称O(g(n))为算法A的渐近时间复杂度,简称时间复杂度,记为T(n)。
如何理解“大O记法”
对于算法进行特别具体的细致分析虽然很好,但在实践中的实际价值有限。对于算法的时间性质和空间性质,最重要的是其数量级和趋势,这些是分析算法效率的主要部分。而计量算法基本操作数量的规模函数中那些常量因子可以忽略不计。例如,可以认为 3n²
和 100n²
属于同一个量级,如果两个算法处理同样规模实例的代价分别为这两个函数,就认为它们的效率“差不多”,都为 n²
级。
4、最坏时间复杂度
分析算法时,存在几种可能的考虑:
- 算法完成工作最少需要多少基本操作,即 最优时间复杂度
- 算法完成工作最多需要多少基本操作,即 最坏时间复杂度
- 算法完成工作平均需要多少基本操作,即 平均时间复杂度
对于最优时间复杂度,其价值不大,因为它没有提供什么有用信息,其反映的只是最乐观最理想的情况,没有参考价值。
对于最坏时间复杂度,提供了一种保证,表明算法在此种程度的基本操作中一定能完成工作。
对于平均时间复杂度,是对算法的一个全面评价,因此它完整全面的反映了这个算法的性质。但另一方面,这种衡量并没有保证,不是每个计算都能在这个基本操作内完成。而且,对于平均情况的计算,也会因为应用算法的实例分布可能并不均匀而难以计算。
因此,我们主要关注算法的最坏情况,亦即最坏时间复杂度。
时间复杂度的几条基本计算规则
- 基本操作,即只有常数项,认为其时间复杂度为O(1)。
- 顺序结构,时间复杂度按 加法 进行计算。
- 循环结构,时间复杂度按 乘法 进行计算。
- 分支结构,时间复杂度 取最大值。
- 判断一个算法的效率时,往往只需要关注操作数量的最高次项,其它次要项和常数项可以忽略
- 在没有特殊说明时,我们所分析的算法的时间复杂度都是指 最坏时间复杂度。
程序举例
1、常数阶
void main(){
int sum = 0,n = 100;
sum = (1 + n) * n / 2;
printf("%d",sum);
}
复制代码
执行次数为3,此时根据结论,用常数1代替所有加法常数,没有最高阶项,所以该算法的时间复杂度为O(1)。
2、线性阶
void main(){
int i,sum = 0,n = 100;
for(i = 1;i <= n;i++){
sum += i;
}
printf("%d",sum);
}
复制代码
执行次数为1 + (n + 1) + n + 1 = 2n + 3,根据结论,用常数1代替加法常数,3替换为1;保留最高阶项2n,去除与最高阶项相乘的常数,所以该算法的时间复杂度为O(n)。
其实在计算的时候,我们无需这样算出每一句代码的执行次数,对于赋值、循环条件、输出语句,我们可以直接不考虑,所以可以直接得出该算法的时间复杂度为O(n)。
3、对数阶
void main(){
int count = 1;
while(count < n){
count *= 2;
}
}
复制代码
该程序中我们只需得出循环次数即可求出时间复杂度,由于每次count乘以2之后,就距离n更近了一分,也就是说,有多少个2相乘后大于n,才会退出循环。由2x = n得出,所以该算法的时间复杂度为O( logn)。
4、平方阶
void main(){
int i,j,n = 100;
for(i = 0;i < n;i++){
for(j = 0;j < n;j++){
printf("%d\t",n);
}
}
}
复制代码
我们知道,对于内层循环,其时间复杂度为O(n),而外层循环不过是执行n次内层循环,所以该算法的时间复杂度为。
常见时间复杂度
执行次数函数举例 | 阶 | 非正式术语 |
---|---|---|
常数阶 | ||
线性阶 | ||
平方阶 | ||
对数阶 | ||
nlogn阶 | ||
立方阶 | ||
指数阶 |
注意,经常将 (以2为底的对数)简写成logn
常见时间复杂度之间的关系
常用的时间复杂度所耗费的时间从小到大依次是:
指数阶 和阶乘阶 除非是很小很小的 n 值,否则哪怕 n 只是100,都是噩梦般的运行时间。所以这种不切实际的算法时间复杂度,一盘我们都不会去讨论。
空间复杂度
随着互联网科技的发展,早先比较贵的存储在如今都较为便宜,所以在某些特定的场景下,可以考虑使用 空间来换取时间。
算法的空间复杂度通过计算算法所需的存储空间实现,空间复杂度的计算公式为:S(n) = O(f(n)),其中,n为问题的规模,f(n)为语句关于n所占存储空间的函数。
通常情况下,我们更注重算法的时间复杂度,所以,空间复杂度只作为一个了解。
小试牛刀
如果 a+b+c=1000,且 (a,b,c 为自然数)
设计程序求出所有a、b、c可能的组合?
该程序的时间复杂度是多少?
源代码
源代码已上传到 GitHub Data-Structure-of-C,欢迎大家来访。
✍ 码字不易,万水千山总是情,点赞再走行不行,还望各位大侠多多支持❤️