http://boto3.readthedocs.io/en/latest/guide/examples.html 에 잘 나와있다.
미리 http://qkqhxla1.tistory.com/912 에 적은것처럼 configure 구성을 해줘야 한다.
aws에 처음 가입하면 1년치에 무료로 ec2라던지 s3라던지 일부 무료로 쓸수 있는데 그걸 이용해서 만들어서 테스트를 해보자.
익숙해질 겸 s3버킷을 하나 만들어서 파일을 올리고 다운로드 받는 스크립트를 짜봤다.
import boto3 print 'region =', boto3.session.Session().region_name s3 = boto3.client('s3') bucket_name = 'qkqhxla1-hosting-example2' bucket_list = map(lambda x:x['Name'], s3.list_buckets()['Buckets']) if bucket_name not in bucket_list: s3.create_bucket(Bucket=bucket_name, CreateBucketConfiguration={'LocationConstraint': 'ap-northeast-1'}) file_path = './csvfile/print.txt' s3.upload_file(file_path, bucket_name, 'print.txt') s3.download_file(bucket_name, 'print.txt', './conf/print.txt')
'data engineering' 카테고리의 다른 글
python hive 관련 삽질 (1) | 2018.05.11 |
---|---|
하둡 에코시스템 관련 레퍼런스 사이트. (0) | 2018.05.04 |
spark 로컬 테스트 관련. (0) | 2018.02.20 |
mongodb에서 js function만들어놓고 사용하는법. (1) | 2017.12.04 |
mongodb profile설정하기. (2) | 2017.11.28 |