我将数据从客户端发送到服务器。我想要准确的计算数据到达目的地所需的时间。客户端和服务器在不同的PC机上,所以我认为使用系统时间是不明智的,因为它们在不同的系统上。
请告知最精确的方法来测量数据到达目的地所需的时间。
发布于 2021-03-09 18:37:10
close将阻塞直到发送所有数据,所以如果您在write启动时间,并在close之后结束,您将有发送时间。对于UDP,数据将被传输,对于TCP,数据将被加上去。如果你要发送到火星漫游者,那么时间将是往返,但通常的时间是小的。
start_time = someTimeFunc();
char *foo = buf;
while (size) {
ssize_t sent = send(sock,foo,size,flags);
if (sent <= 0)
fail;
foo += sent;
size -= sent;
}
close(sock);
end_time = someTimeFunc();发布于 2021-03-09 18:37:46
当应用程序“发送”数据时,数据实际上不会立即被传输。将其放入操作系统内核中的队列中,然后将控件返回给应用程序。内核将在自己的时间内在后台传输排队的数据。无法知道内核何时实际传输,或者数据到达目的地需要多长时间。即使如此,数据在接收端被放入另一个内核队列中,等待接收应用程序从该队列中提取数据。
因此,要完成所要求的任务,唯一的方法是让接收方显式地向发送方发送确认,指定接收方何时实际读取数据。发送者和接收者必须就时间尺度达成一致,就像UTC一样,并将他们的时钟同步到一个共同的来源。然而,这并不是传输时间的真实反映,但如果发送方和接收方都能及时处理各自的套接字I/O,则传输时间很可能接近。
https://stackoverflow.com/questions/66552402
复制相似问题