我有一个ASP.NET MVC应用程序,它有一个允许用户上传文件的页面。这些文件将是几百兆字节。
我在客户端使用FineUploader,如果浏览器支持它,它将使用FileAPI/XHR,否则将使用enctype="multipart whatever“的Iframe/form。
因此,在服务器端,我需要评估Request.Files.Count > 1
。如果是true
,这是一个老学校上传的文件,我会像Request.Files[0].InputStream.CopyTo(myFileStream)
一样保存文件,否则我会使用Request.InputStreawm.CopyTo(myFileStream)
。
下面是我编写的一些实际代码,用来完成这些工作:https://github.com/ronnieoverby/file-uploader/blob/master/server/ASP.NET%20MVC%20C%23/FineUpload.cs
这一切都运行得很好,但在我的测试中,我注意到在整个文件上传之前,ASP.NET MVC控制器操作和HttpHandler都不会开始处理,如果文件非常大,这是不好的,因为这意味着它占用了web服务器的大量内存。
我发现了这个:Streaming large file uploads to ASP.NET MVC,这听起来很有希望,但我真的不知道代码在他的应用程序中驻留在哪里。
因此,问题是:当ASP.NET仍在进行上传时,如何将上传的文件流式传输到磁盘?
更新
我只是看到了一个关键的细节,以前没有被理解。从HttpPostedFile文档中:
默认情况下,所有大于256 KB的请求(包括表单域和上传的文件)都缓冲到磁盘,而不是保存在服务器内存中。
好的,这解决了web服务器的RAM使用率在大型上传过程中可能会达到峰值的问题。但是,仍然存在一个问题:文件完全传输到web服务器后,服务器必须花费时间将其移动到其最终目的地。如果文件系统操作是拷贝(如果目标位于另一个物理磁盘上,则保证),则响应将被不必要地延迟。
老实说,我可能可以通过增加上载处理程序/操作的响应超时来接受这一点。但是,将字节直接流式传输到它们的目的地会更好。
https://stackoverflow.com/questions/13976517
复制相似问题