ありがとうございました。紹介していただいた方法で分割アップロード、結合までできました。
ちなみに私はListで分割したチャンクを保存してみました。
こんな感じです。
----------------------
class FileChunk(db.Model):
bin = db.BlobProperty()
class File(BaseModel):
filename = db.StringProperty()
orginal_filename = db.StringProperty()
content_type = db.StringProperty(default='application/octet-stream')
body = db.BlobProperty() #過去の互換のため
content_length =db.IntegerProperty()
uploaded_at = db.DateTimeProperty(auto_now_add = True)
chunks = db.ListProperty(db.Key)
-------
file_data = self.request.get("up_file")
res= {'status':'success','msg':"アップロードが完了しました"}
if file_data == None:
res= {'status':'error',"msg":"ファイルが不正です"}
else:
length = len(file_data)
type = self.request.body_file.vars['up_file'].headers['Content-
Type']
name = self.request.body_file.vars['up_file'].filename.decode
('utf-8')
rec = File
(filename=name,orginal_filename=name,content_type=type,content_length=length)
for i in range(0, 9):
chunk= file_data[i*1000000:i*1000000+1000000]
file_chunk = FileChunk(bin=chunk)
file_chunk.put()
rec.chunks.append(file_chunk.key())
if len(chunk) < 1000000:
break
rec.put()
----------------------
On 7月16日, 午前7:59, Mitsukuni SATO <
mitsukuni.s...@gmail.com> wrote:
> takeshiさん
>
> 以前ブログのネタにしました。ご参考までにどうぞ。
>
>
http://mitsukuni.org/blog/2009/04/04/gae-datastore%E3%81%AE%E5%88%B6%...
>
> 2009/7/16 Yasuo Higa <
higaya...@gmail.com>:
>
>
>
> > 1MBを超える場合は分割してBigtableに保存してください。
>
> > 2009年7月15日 午後9:59 "Takeshi" <
takeshi.fujis...@gmail.com>: