算法定义:算法是解决特定问题求解步骤的描述,在计算机中表现为指令的有限序列,并且每条指令表示一个或多个操作。 通俗来讲:算法是描述解决问题的方法
算法五个基本特征:
1、输入输出
2、有穷性
3、确定性
4、可行性
1、正确性
2、可读性
3、健壮性
4、时间效率高和存储量低
1、事后统计方法
2、事前分析估算方法
int i, sum = 0, n = 100; /*执行1次*/
for (i = 1; i <= n; i++) { /*执行n+1次*/
sum = sum + i; /*执行n次*/
}
printf("%d", sum); /*执行1次*/
第二种算法:
int sum = 0, n = 100; /*执行1次*/
sum = (1 + n) * n/2; /*执行1次*/
printf("%d", sum); /*执行1次*/
显然,第一种算法,执行了1+(n+1)+n+1 = 2n+3次;而第二种算法,是1+1+1=3次,算法好坏显而易见。 延伸一下上面例子:
int i, j, x = 0, sum = 0, n = 100; /*执行1次*/
for (i = 1; i < n; i++) {
for (j = 1; j <= n; j++) {
x++; /*执行n*n次*/
sum = sum + x;
}
}
printf("%d", sum); /*执行1次*/
这个例子中,i从1到100,每次都要让j循环100次,而当中的x++和sum = sum + x; 其实就是1+2+3+...+10000,也就是100²,所以循环部分的代码整体需要执行n²(忽略循环头尾的开销)次。这个算法的执行时间随着n的增加将远远多于前面两个。 分析一个算法的运行时间时,重要的是把基本操作的数量与输入规模关联起来,即基本操作的数量必须表示成输入规模的函数
算法操作
随着n值得越来越大,它们在时间效率上的差异也就越来越大。