本文目录
背景
有同事提出将一个8G多的VHD上传到百度的网盘,但是百度网盘针对免费用户暂时的单个文件限制为4G,已经挺大的了,但是还是装不下这个VHD。最经济的最方便的方法就是将大文件分割成小文件,既解决了无法上传的问题,也降低了中途上传失败的概率(尽管支持断点续传)。假如网络带宽允许,将操作系统安装在网盘上,也是一件挺有意思的事情。下次使用时,再下载多个文件,然后合并。
需求
- 写一个PowerShell 脚本,至少包含两个函数“分割文件”和“合并文件”;
- 分割文件可以按照文件个数分割,也可以按照单个文件的大小分割;
- 将脚本处理时占用的内存最大控制在50M左右;
- 合并文件时接受待合并文件所在的目录为参数,并支持通配符过滤;
- 在处理文件时,能够显示进度提示。
技术要点
- 处理的一般都是大文件,所以使用.NET 中 FileStream 对象,因为流处理可以提高性能。
- 将缓冲区设置为1M-50M,当分割的单个文件大小超过1G时,使用50M内存,小于等于1M时,使用1M,其余按比例增加力求节省内存。
- 暂时不考虑使用并行处理,因为在此场景中性能更多由硬盘的读取速度决定。
- 分割出的文件在源文件名称后追加_part_001 这样的格式,方便在合并前按照升序排序。
截图
进度条显示
分割后的文件列表
使用示例
# 先导入 函数 Split-Merge-File . 'E\Split-Merge-File.ps1' #注意句号和脚本之间有空格 # 将文件 ‘E:\win2012.vhdx’ 分割成20个小文件,输出至目录 'E:\VHD' Split-File -File 'E:\win2012.vhdx' -ByPartCount -PartCount 20 -OutputDir 'E:\VHD' # 将件‘E:\win2012.vhdx’按照每个大小 500MB 来分割,输出至目录 'E:\VHD' Split-File -File 'E:\win2012.vhdx' -ByPartLength -PartLength 500MB -OutputDir 'E:\VHD' # 将 'E:\VHD' 目录下包含 part 的所有文件合并,输出为 单个文件 'E:\win2012-2.vhdx' Merge- File -SourceDir 'E:\VHD' -Filter "*part*" -OutputFile 'E:\win2012-2.vhdx'
源脚本(Split-Merge-File.ps1)
# Obtain a suitable buffer length by partial file length function Get-BufferLength ([int]$partialFileLength) { [int]$MinBufferLength = 1MB # No need to consume great amount memory,initialize as 50M, you can adjust it from here. [int]$MaxBufferLength = 50MB if($partialFileLength -ge 1GB) { return $MaxBufferLength} elseif( $partialFileLength -le 50MB) { return $MinBufferLength } else{ return [int]( $MaxBufferLength/1GB * $partialFileLength )} } # Write partial stream to file from current position function Write-PartialStreamToFile { param( [IO.FileStream]$stream, [long]$length, [string]$outputFile ) #copy stream to file function Copy-Stream( [int]$bufferLength ) { [byte[]]$buffer = New-Object byte[]( $bufferLength ) # Read partial file data to memory buffer $stream.Read($buffer,0,$buffer.Length) | Out-Null # Flush buffer to file $outStream = New-Object IO.FileStream($outputFile,'Append','Write','Read') $outStream.Write($buffer,0,$buffer.Length) $outStream.Flush() $outStream.Close() } $maxBuffer = Get-BufferLength $length $remBuffer = 0 $loop = [Math]::DivRem($length,$maxBuffer,[ref]$remBuffer) if($loop -eq 0) { Copy-Stream $remBuffer return } 1..$loop | foreach { $bufferLength = $maxBuffer # let last loop contains remanent length if( ($_ -eq $loop) -and ($remBuffer -gt 0) ) { $bufferLength = $maxBuffer + $remBuffer } Copy-Stream $bufferLength # show outer progress $progress = [int]($_*100/$loop) write-progress -activity 'Writting file' -status 'Progress' -id 2 -percentcomplete $progress -currentOperation "$progress %" } } # split a large file into mutiple parts by part count or part length function Split-File { param( [Parameter(Mandatory=$True)] [IO.FileInfo]$File, [Switch]$ByPartCount, [Switch]$ByPartLength, [int]$PartCount, [int]$PartLength, [IO.DirectoryInfo]$OutputDir = '.' ) # Argument validation if(-not $File.Exists) { throw "Source file [$File] not exists" } if(-not $OutputDir.Exists) { mkdir $OutputDir.FullName | Out-Null} if( (-not $ByPartCount) -and (-not $ByPartLength) ) { throw 'Must specify one of parameter, [ByPartCount] or [ByPartLength]' } elseif( $ByPartCount ) { if($PartCount -le 1) {throw '[PartCount] must larger than 1'} $PartLength = $File.Length / $PartCount } elseif( $ByPartLength ) { if($PartLength -lt 1) { throw '[PartLength] must larger than 0' } if($PartLength -ge $File.Length) { throw '[PartLength] must less than source file' } $temp = $File.Length /$PartLength $PartCount = [int]$temp if( ($File.Length % $PartLength) -gt 0 -and ( $PartCount -lt $temp ) ) { $PartCount++ } } $stream = New-Object IO.FileStream($File.FullName, [IO.FileMode]::Open ,[IO.FileAccess]::Read ,[IO.FileShare]::Read ) # Make sure each part file name ended like '001' so that it's convenient to merge [string]$numberMaskStr = [string]::Empty.PadLeft( [int]([Math]::Log10($PartCount) + 1), "0" ) 1 .. $PartCount | foreach { $outputFile = Join-Path $OutputDir ( "{0}.part_{1} " -f $File.Name , $_.ToString( $numberMaskStr ) ) # show outer progress $progress = [int]($_*100/$PartCount) write-progress -activity "Splitting file" -status "Progress $progress %" -Id 1 -percentcomplete $progress -currentOperation "Handle file $outputFile" if($_ -eq $PartCount) { Write-PartialStreamToFile $stream ($stream.Length - $stream.Position) $outputFile } else { Write-PartialStreamToFile $stream $PartLength $outputFile } } $stream.Close() } function Merge-File { param( [Parameter(Mandatory=$True)] [IO.DirectoryInfo]$SourceDir, [string]$Filter, [IO.FileInfo]$OutputFile ) # arguments validation if ( -not $SourceDir.Exists ) { throw "Directory $SourceDir not exists." } $files = dir $SourceDir -File -Filter $Filter if($files -eq $null){ throw "No matched file in directory $SourceDir"} # output stream $outputStream = New-Object IO.FileStream($OutputFile.FullName, [IO.FileMode]::Append ,[IO.FileAccess]::Write ,[IO.FileShare]::Read ) # merge file $files | foreach{ #input stream $inputStream = New-Object IO.FileStream($_.FullName, [IO.FileMode]::Open ,[IO.FileAccess]::Read ,[IO.FileShare]::Read ) $bufferLength = Get-BufferLength -partialFileLength $_.Length while($inputStream.Position -lt $inputStream.Length) { if( ($inputStream.Position + $bufferLength) -gt $inputStream.Length) { $bufferLength = $inputStream.Length - $inputStream.Position } # show outer progress $progress = [int]($inputStream.Position *100/ $inputStream.Length) write-progress -activity 'Merging file' -status "Progress $progress %" -percentcomplete $progress # read file to memory buffer $buffer= New-Object byte[]( $bufferLength ) $inputStream.Read( $buffer,0,$buffer.Length) | Out-Null #flush buffer to file $outputStream.Write( $buffer,0,$buffer.Length) | Out-Null $outputStream.Flush() } $inputStream.Close() } $outputStream.Close() }
本文链接: https://www.pstips.net/powershell-split-merge-large-file.html
请尊重原作者和编辑的辛勤劳动,欢迎转载,并注明出处!
请尊重原作者和编辑的辛勤劳动,欢迎转载,并注明出处!
合并不能用了
具体是什么错误,这个之前应当是我测试多的。
分割的时候貌似切割行(split line)不是很精准,这样利用循环读取每个文件的时候,会发生读取错误的情况,打开错误的part会发现是与前一个part并非整行切割,而是行中间断了,请问如何解决
拆分大文件(CSV)成10个文件后,其中4个文件出现乱码,楼主是否有遇到过这种问题?
很好的代码鸭。
第141行, $files = dir $SourceDir -File -Filter $Filter 。
目前的版本里应该是要去掉 -File ,不然会报错。
合并报错
Merge- File -SourceDir ‘C:\0’ -Filter “*part*” -OutputFile ‘C:\02.rar’
Merge- : 无法将“Merge-”项识别为 cmdlet、函数、脚本文件或可运行程序的名称。请检查名称的拼写,如果包括路径,请确保路径正确,然后再试一次。
所在位置 行:2 字符: 1
+ Merge- File -SourceDir ‘C:\0’ -Filter “*part*” -OutputFile ‘C:\02.rar …
+ ~~~~~~
+ CategoryInfo : ObjectNotFound: (Merge-:String) [], CommandNotFoundException
+ FullyQualifiedErrorId : CommandNotFoundException