分析谷歌的在线python脚本编写工具,不用再在本地安装了,琢磨了一阵本地数据怎么上传到云端去使用。
需要注意的是Colaboratory是使用了虚拟机,跟云端硬盘不是一个系统。
因此,需要按如下步骤进行:
创建一个新的python3脚本执行指令 from google.colab import drive drive.mount('/content/gdrive')其中会自动连接到云端硬盘,提示是否允许访问,允许后会出现一个字符串,复制后黏贴回来进行验证,通过后就ok了。
Go to this URL in a browser: https://accounts.google.com/o/oauth2/auth?client_id=947318989803-6bn6qk8qdgf4n4g3pfee6491hc0brc4i.apps.googleusercontent.com&redirect_uri=urn:ietf:wg:oauth:2.0:oob&scope=email https://www.googleapis.com/auth/docs.test https://www.googleapis.com/auth/drive https://www.googleapis.com/auth/drive.photos.readonly https://www.googleapis.com/auth/peopleapi.readonly&response_type=code
Enter your authorization code:
·········· Mounted at /content/gdrive
3.在云端硬盘上创建一个pysparkdata文件夹,下面存放自己的数据
4.在脚本里面执行切换目录的指令
import os os.chdir("/content/gdrive/My Drive/")
已经可以看到对应的数据了,简单验证下,读取成功;
import pandas as pd df=pd.read_csv("./pysparkdata/Mall_Customers.csv") df.head() CustomerID Gender Age Annual Income (k$) Spending Score (1-100) 0 1 Male 19 15 39 1 2 Male 21 15 81 2 3 Female 20 16 6 3 4 Female 23 16 77 4 5 Female 31 17 40