小言_互联网的博客

100行代码带你走入免费人工智能平台-百度aistudio

596人阅读  评论(0)

 前天我也发过博客吐槽目前AI界胜行各类大力出奇迹式的成果,像我们这种普通的不掌握大算力的AI爱好者,好像已经完全被排出在了主流圈子之外了,即便有想法也没办法立刻实施验证。

不过前几天和百信银行交流时意外发现了一个在线的Python平台百度大脑aistudio,目前还有实力炸裂的Tesla V100的算力赠送,我们知道目前据称算力最高的AI芯片阿里平头哥在云栖大会上发布的是含光800,不过由于含光还未正式上市,所以根据评测目前V100还是占据AI算力榜上的榜眼位,第一名是华为去年发布的昇腾(Ascend)910 ,虽然退居第二,不过V100这类神U由于其高昂的价格在民间是非常少见的。所以趁现在还能免费申请,大家尽早用起来吧。

获取算力卡

登陆百度大脑,注册用户

首先登陆http://ai.baidu.com,如果没有百度用户需要注册一个用户,然后点击创建项目就可以了

登陆创建项目,添加数据集

然后在项目的页面,在配置资源一项选择Notebook一项,

接下来选择添加数据集

 公开的数据集可以添加两个,这个最主要的目的就是在在你运行项目时给你的虚拟机里面会有一个data目录,如果包含了这个数据集那么就可以直接在data目录中看到啦。当然这个不是重点,有关这个在线的环境我下面还会继续介绍。

运行项目,即可获得算力

接下来选择返行项目

然后选择运行环境,如果没有编码完成建议先使用CPU环境进行编写这个是完全不消耗算力卡的,但是也可以获得算力,目前是每日运行获得12小时,连续5天运行获得48小时

运行项目,即可获得算力

接下来点击个人中心

再点击邀请码验证输入”b0acbe39ba0f447c884a36cc5c6ebf4c“也能获得48小时的算力。

 

百度大脑上的第一个在线Python项目,豆瓣爬虫

基本环境介绍

我们知道一般来说从头搭建python的开发环境还是比较痛点的,尤其是安装CUDA等人工智能的必选包更是比较麻烦,不过百度的这个在线环境做的还是相当不错的,接下来我们来介绍一下他的使用攻略,在项目运行后点击进入,即可进入到NoteBook的运行环境

主界面如下:

其中最左侧的导航栏介绍如下:

一、环境信息,包含了运行项目的环境。如咱们刚刚在CPU上运行项目,则点击环境信息可以看到。

二、文件夹:项目一般两说有两个目录,其中 /home/aistudio/data/目录存储数据集, /home/aistudio/work/存放程序文件。如果你刚刚选择了添加数据集则可以直接在 /home/aistudio/data/目录下看到了。如果需要可以点击上传按钮载入,放入个人的数据集

三、数据集:就是 /home/aistudio/data/目录下的内容。

四、配置:用来配置当前页面的运行时间。

右侧标签介绍

1.Notebook:就是我们在线进行Python编程环境。

2.终端:就是我们对于这台docker的操作终端。可以运行一些简单的linux的命令,如ps、top等,不过netstat等网络管理命令是无法运行的。

1.百度大脑上第一个豆瓣爬虫项目

我们知道这种纯CPU的环境,不太适合进行深度学习,所以这里我们就先以一个爬虫项目为例,来介绍一下百度大脑的Notebook功能的使用方式。

一、安装依赖包

在notebook标签下,输入!pip install 包名,即可完成python包的安装,比如我们接下来就要安装bs4等包,一般不会安装失败具体命令如下:

!pip install bs4
!pip install openpyxl

使用!pip list命令可以看到安装的python包,基本已经全了,不过有一点揭示,在百度的环境中无法安装tensorflow,pytorch等深度学习框架。但是这个也可以理解,百度提供这个环境肯定是要推广自家的深度学习飞浆,在这里用tensorflow感觉是不可能的。不过这也让我们断了别的念想,我们知道目前在Github上大火的12306抢票项目是基于tensorlfow的框架的自动打码模型,所以想用这个平台进行火车抢票看来也是不太可能了。

二、运行爬虫代码

爬虫的教程目前已经很多了,这里只是举个例子,让大家感受一下在线Python的环境。具体代码及注释如下:

/home/aistudio/data/data1810/data.txt

import sys
import time
from bs4 import BeautifulSoup
import re
import urllib
import openpyxl

def askURL(url):
    request = urllib.request.Request(url)#发送请求
    try:
        response = urllib.request.urlopen(request)#取得响应
        html= response.read()#获取网页内容
        # print (html)
    except urllib.error.URLError as e:
        if hasattr(e,"code"):
            print (e.code)
        if hasattr(e,"reason"):
            print (e.reason)
    return html
    
def getData(baseurl):
    findLink=re.compile(r'<a href="(.*?)">')#找到影片详情链接
    findImgSrc=re.compile(r'<img.*src="(.*?)"',re.S)#找到影片图片
    findTitle=re.compile(r'<span class="title">(.*)</span>')#找到片名
    #找到评分
    findRating=re.compile(r'<span class="rating_num" property="v:average">(.*)</span>')
    #找到评价人数
    findJudge=re.compile(r'<span>(\d*)人评价</span>')
    #找到概况
    findInq=re.compile(r'<span class="inq">(.*)</span>')
    #找到影片相关内容:导演,主演,年份,地区,类别
    findBd=re.compile(r'<p class="">(.*?)</p>',re.S)
    #去掉无关内容
    remove=re.compile(r'                            |\n|</br>|\.*')
    datalist=[]

    for i in range(0,10):
        url=baseurl+str(i*25)
        html=askURL(url)
        soup = BeautifulSoup(html, "html.parser")
        for item in soup.find_all('div',class_='item'):#找到每一个影片项
            data=[]
            item=str(item)#转换成字符串
            # 影片详情链接
            link=re.findall(findLink,item)[0]
            data.append(link)#添加详情链接  
            imgSrc=re.findall(findImgSrc,item)[0]
            data.append(imgSrc)#添加图片链接
            titles=re.findall(findTitle,item)
            #片名可能只有一个中文名,没有外国名
            if(len(titles)==2):
                ctitle=titles[0]
                data.append(ctitle)#添加中文片名
                otitle=titles[1].replace("/","")#去掉无关符号
                data.append(otitle)#添加外国片名
            else:
                data.append(titles[0])#添加中文片名
                data.append(' ')#留空

            rating=re.findall(findRating,item)[0]
            data.append(rating)#添加评分
            judgeNum=re.findall(findJudge,item)[0]
            data.append(judgeNum)#添加评论人数
            inq=re.findall(findInq,item)
            
            #可能没有概况
            if len(inq)!=0:
                inq=inq[0].replace("。","")#去掉句号
                data.append(inq)#添加概况
            else:
                data.append(' ')#留空
            bd=re.findall(findBd,item)[0]
            bd=re.sub(remove,"",bd)
            bd=re.sub('<br(\s+)?\/?>(\s+)?'," ",bd) #去掉<br >
            bd=re.sub('/', " ",bd)#替换/
            data.append(bd.strip())
            datalist.append(data)
            
    time.sleep(5)
    return datalist
    
def saveData(datalist,savepath):
    book=openpyxl.Workbook()
    sheet = book.create_sheet("豆瓣电影Top250")
    #sheet=book.add_sheet('豆瓣电影Top250',cell_overwrite_ok=True)
    col=('电影详情链接','图片链接','影片中文名','影片外国名', '评分','评价数','概况','相关信息')

    sheet.append(col)  #添加列头

    
    for i in range(0,250):
        data=datalist[i]
        for j in range(0,8):
            sheet.cell(row = (i+2),column = (j+1),value = data[j]) 

#openpyxl中的单元格计数从1开始, 加上第一行是列头, 要多跳一个
#openpyxl中的计数和Excel内的计数方式一致, 但和常规编程从0开始的方式相左

    book.save(savepath)

   

from pandas import Series,DataFrame
import pandas as pd
#打印一些样例数据观察
print("开始爬取......")
baseurl='https://movie.douban.com/top250?start='
datalist=getData(baseurl)
savapath=u'/home/aistudio/work/豆瓣电影Top250.xlsx'
saveData(datalist,savapath)
from openpyxl import load_workbook
wb = load_workbook(filename = 'work/豆瓣电影Top250.xlsx')
sheet_ranges = wb['豆瓣电影Top250']

#将第一列的前几行打印出来
for i in range (1,8):
    print(sheet_ranges['A'+i.__str__()].value)
    

#如果没有问题, 就将该工作表转为dataframe格式

df = DataFrame(sheet_ranges.values)

结果展示

运行完成后就可以在文件夹的work目录下看到《豆瓣电影Topi250》文件了,点击下载按钮就可以下载下来了。


转载:https://blog.csdn.net/BEYONDMA/article/details/101762116
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场