我有一个矩阵,其中有一个标志列(1和0)、时间戳和我感兴趣的变量。基本上,数据(来自仪器)是以flag进行测量的:0(参考值)表示N个时间量,flag:1表示N个时间量。我需要实现的是估计每个标志的平均值:零和标志:每个测量周期一个。(i)=NaN; end
这样做基本上是在条件(即0或1)不满足时放入
通过比较运行算法所需的时间和输入的大小,可以很容易地计算Python中的时间复杂度。algorithm on input_n (input of size n)>time_n = end - start
通过绘制time_n与input_n的关系图,我们可以观察时间复杂度是否为常数在Python中,有没有一种类似的经验的、程序化的方法来计算算法的空间复杂度,我们可以测量随着输入大小的增长而使用的空间量?