from urllib import request
import urllib
from bs4 import BeautifulSoup as bs
page = request.urlopen("http://someurl.ulr").read()
soup = (page,"lxml")
现在这个过程非常慢,因为它使一个请求解析数据,通过指定的步骤,然后我们返回到发出请求。
- for example
for links in findAll('a'):
print (links.href)
然后我们回到请求,因为我们想
我在python中有一个要异步运行的缓慢函数。这个缓慢的函数基本上是一个很长的循环,如下所示:
def slow(slowness):
print(f"Slow loop {slowness}")
for i in range(int(slowness * 1e8)):
i
print(f"Wait for loop {slowness} finished")
if __name__ == '__main__':
slow(1)
slow(0.5)
slow(0.1)
我试图使