基于Python的美食天下網數據采集與分析_第1頁
基于Python的美食天下網數據采集與分析_第2頁
基于Python的美食天下網數據采集與分析_第3頁
基于Python的美食天下網數據采集與分析_第4頁
基于Python的美食天下網數據采集與分析_第5頁
已閱讀5頁,還剩18頁未讀 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

湖南商務職業技術學院畢業設計

目錄

.

1引言1

1.1畢業設計背景1

1.2開發環境與工具1

1.2.1Python簡介1

1.2.2Jypyternotebook簡介2

1.2.3Python第三方庫簡介2

2需求分析3

2.1可行性需求分析3

2.2采集目標功能分析3

2.3關鍵技術分析4

2.3.1網絡爬蟲技術4

2.3.2文件存取技術4

2.3.3可視化技術4

3數據采集5

3.1采集頁面分析5

3.2字段分析6

3.3編程實現8

4數據清洗與處理12

4.1數據清洗12

4.2數據儲存12

4.3編程實現13

5數據統計與分析14

5.1數據準備14

5.2數據展示15

5.2.1依據美食口味進行統計分析15

I

湖南商務職業技術學院畢業設計

5.2.2依據使用廚具進行統計分析16

5.2.3依據工藝類別進行統計分析16

5.2.4依據制作時間進行統計分析17

5.2.5依據所屬類別進行統計分析18

5.3綜述19

6小結19

參考資料21

II

湖南商務職業技術學院畢業設計

基于Python的美食天下網數據采集與分析

1引言

當今世界中屬于大數據的時代已經到來,運用計算機進行網絡爬蟲技術已

成為這個時代中不可或缺的一項重要技術,比如需要用到數據來分析用戶的某

種行為或者某些產品的優缺點信息等等,而這一切的首要條件就是數據采集技

術的實現。當今互聯網社會中,數據就可以說就是無價之寶,誰擁有大量有用

的數據信息,誰就擁有了對某一事務決策的主動權,就會有更多選擇方向。那

么怎樣有效地采集并且利用這些有用的信息成為了一個巨大的挑戰,而網絡爬

蟲技術就是采集數據的有效方法,它可以很好的幫我們解決。它是按照操作者

給予一定的規則,從而自動在網絡當中獲得海量信息,可以說是一種的程序,

也可以是一種腳本。

1.1畢業設計背景

美食,是可以吃下去的幸福記憶,是很多人都喜歡的東西,那么美食的聚

集地在哪呢?最簡單的當然是美食網站,這可算是一大福地了。一個好的美食

網站,除了包羅萬象的美味美食之外,還必須具備其它重要信息,如作法步驟,

使用工具,制作方式等等。涉及的信息很多,小小的手指怎么可能點的過來呢,

點來點去是不是太麻煩了?因此我們就需要用到python爬蟲技術對網站進行

分析,獲取我們想要的信息,把美食們都“收入囊中”。

我的畢業設計就是針對“美食天下”網站中的“菜譜首頁”菜單進行各個

美食的概要信息和簡單的數據分析,把原本繁雜的數據經過清洗加以分析呈現

出來,達到化繁為簡、一目了然的效果。

1.2開發環境與工具

1.2.1Python簡介

Python是一種解釋型、通用的高級編程語言。不僅提供高效的高級數據結

構,而且它還能簡單有效地面向對象編程,它的解釋器易于擴展。其本身就提

供了適用于各個主要系統平臺的源碼碼或機器碼。更主要的是它的語法和動態

類型,以及解釋型語言的本質,使它成為多數平臺上寫腳本和快速開發應用的

1

湖南商務職業技術學院畢業設計

編程語言。

在編程語言排行榜中,Python的排名已經與老牌的C語言和JAVA語言不相

上下,它也逐漸走進非IT行業工作者的視野內。現如今,人們用它開發簡單的小

腳本用來做文件的自動化處理或者開發一些小網站打發無聊時光。這也突出

Python的特點就是易學、第三方庫足夠豐富、并且免費開源、支持跨多平臺且

可移植性比較強。

1.2.2Jypyternotebook簡介

jupyternotebook是一種Web應用,是基于網頁的用于交互計算的應用

程序,能讓用戶將數學方程、代碼和可視化內容、說明文本全部組合到一個易

于共享的文檔中,非常方便教學和研究。

它可以直接通過瀏覽器運行代碼,并同時顯示運行結果在代碼塊下方,還

擁有語法高亮、縮進等功能。擁有富媒體格式的展示計算,而且jupyter

notebook支持使用LATEX編寫數學性說明。

1.2.3Python第三方庫簡介

requests:是一個對用戶很友好的網絡爬蟲功能庫,是實現簡單易用的

http庫,非常容易操作,在使用前要先進行安裝。

BeautifulSoup:可以對HTML、XML格式進行解析,從中提取到我們需要的

相關信息;還可以對所提供的任何格式進行相關的數據爬取,而且對它進行樹

形解析。

pandas:數據分析并保存為csv文件,它屬于python數據分析高層次應用

庫,還可以用于進行相關的數據清洗。

matplotlib:一個繪圖庫,主要是偏向于二維繪圖包括條形圖、扇形圖、

散點圖、直方圖等等。

Csv:python中的內置模塊,它能夠讀取csv格式的文件或者將數據存入到

csv表格中。并且csv文件是表格和數據庫中常見的文件操作格式。

pyecharts:常用于生成圖表的庫。

wordcloud:生成中文詞云。

pyplot:常用的繪圖模塊,能很方便的繪制2D圖表。

Webdriver:它是用于web應用程序的自動化測試工具,容易被操作者使用

和理解,其可維護、可讀寫性很高。而且它不依賴于任何測試框架,作用起來特

別方便且容易操作。

2

湖南商務職業技術學院畢業設計

2需求分析

2.1可行性需求分析

1.技術可行性

Python是面對對象的語言,通俗易懂,這讓它對于爬蟲領域有著巨大的優

勢。本項目便是利用python采集數據,通過python中的第三方庫進行數據分

析、然后再進行數據清洗預處理操作、及最后的數據可視化的展示出來,將爬

取的原始數據暫時以csv格式的文件存儲起來,后續利用時可對其進行調用。

2.項目可行性

品嘗美食是一種享受,它總在迥然不同的民族和文化間扮演著親善大使,

靜默的歲月中,彼此滲透。每一個制造和享用美食的人,無不歷經江湖夜雨,

期待桃李春風。

本畢業設計通過采集美食網站的數據,分析美食信息。我們將從美食的制

作者、制作方式、制作用具等方面對其進行深度剖析、分析出有價值的信息,

將最后的結果呈現在大家眼前,到最后把“美食”真正的“共享”出來,分析

美食與我們之間的關系。

2.2采集目標功能分析

此次項目的數據集來源于“美食天下”網,是通過python爬取其“菜譜首

頁”菜單中部分信息。數據清洗后共得到896條有效記錄,并盡可能保證數據

可靠性。

本次爬取“美食天下”網,主要獲得了以下信息:美食名、上傳用戶名、

口味、工藝類別、耗時、使用廚具、所屬類別、主料、輔料、調料、做法步驟。

主要目的是通過實際數據來分析每一個美食在制作時前后相關的信息,讓它們

簡潔明了的呈現出來。例如,食中用到同一種廚具的有多少、它們的類別又是

什么,制作美食所需要的材料及其用量各是多少,再者美食的制作步驟是什么

等等。

以此來探究大家更喜歡哪類美食、做美食的工具哪種更受大家喜歡、大家

更喜歡美食制作時間長的還是時間短等一系列問題。

3

湖南商務職業技術學院畢業設計

2.3關鍵技術分析

2.3.1網絡爬蟲技術

網絡爬蟲一般也被稱為網絡機器人,它可以代替人類手工,利用程序或腳

本來自動穿梭互聯網,并進行數據信息的采集。把我們日常使用的網絡比作成

一個蜘蛛網,那么網絡爬蟲就是在這個網上爬行的蜘蛛。網絡蜘蛛是通過網頁

的鏈接地址來尋找網頁,從網站某一個頁面開始,一般是網站的首頁,爬蟲讀

取網頁中的內容并分析,找出在網頁中的其它鏈接,然后在這些鏈接地址中得

到想要的信息再去尋找下一個網頁,如此循環,直到把網站中所有的網頁都爬

取完為止。

網絡爬蟲為搜索引擎從網址上下載網頁,是搜索引擎重要組成部分。一般

來講,它是從一個或若干初始網頁的URL開始,獲得初始網頁上的URL,分析并

得到網頁中的數據鏈接(超鏈接),在抓取網頁的過程中,不斷從當前網址里

找到新的鏈接或者是url放入列表中,直到操作者給定的任務。

2.3.2文件存取技術

Python內置csv模塊存儲技術如圖2-1:

圖2-1python內置csv模塊存儲圖

Python內置pandas模存儲技術如圖2-2:

圖2-2python內置pandas模塊圖

2.3.3可視化技術

數據可視化技術是關于數據視覺表現形式的科學技術研究,是一種以某種

概要形式抽提出來的信息,包括相應信息單位的各種屬性和變量。它可以增強

數據的呈現效果,方便用戶更直觀的觀察數據,能幫助發現數據中更多難以發

掘的信息,可視化技術的應用領域十分廣泛。

本畢業設計中將得到的數據用簡單的可視化手段實現數據可視化,利用

python的第三方庫matpoltlab及pyecharts去進行可視化,matplotlab中包

4

湖南商務職業技術學院畢業設計

含了多種庫,如條形圖、拆線圖、餅圖等,可以很直觀的將數據結果表現出來。

3數據采集

3.1采集頁面分析

瀏覽器中查找“美食天下”,進入網站后點擊“菜譜”菜單,觀察圖3-1,

其中URL為:/recipe.html;如圖3-1所示該網

頁沒有分頁按鈕,是下滑滾動條式的網頁,不斷點擊“查看更多”,頁面下方美

食數據增加,URL地址始終為同一個,我們始終在這個頁面。這一步我們只要得

到美食數據量即可。

圖3-1數據網址頁面圖

按F12調出開發者工具,刷新頁面,如圖3-2。

圖3-2開發者工具圖

利用全局搜索工具定位所需數據位置,點擊開發者工具上面的headers字

段,發現這個一個GET請示,在這里我們在網頁中找到“User-Agent”,用于

5

湖南商務職業技術學院畢業設計

后面爬取數據做的“偽裝”,如圖3-3。

圖3-3User-Agent圖

3.2字段分析

利用開發工具定位到我們所需要爬取的美食上,如圖3-4,可以看到它們的

url沒有規律,且都跟隨一個用戶頁面的url。要想得到美食信息數據就得進入

它們各自的url爬取,因此編寫代碼得到該頁面的所有url,篩選出用戶url,

控制并準確的進入到美食信息頁面。

圖3-4分析數據頁面圖

如圖3-5與圖3-6所示,得到進入美食URL后,我們的目的是得到該美食

的“美食名”、“上傳用戶名”、“口味”、“工藝類別”、“耗時”、“使

6

湖南商務職業技術學院畢業設計

用廚具”、“所屬類別”、“主料”、“輔料”、“調料”、“做法步驟”相

關信息,最后利用爬蟲技術存儲到CSV文件中。

圖3-5分析數據頁面

圖3-6分析數據頁面圖

7

湖南商務職業技術學院畢業設計

3.3編程實現

導入所需庫

圖3-5導入所需庫頁面圖

設置請求頭,偽裝成瀏覽器訪問服務器,逐個訪問。

圖3-6請求頭內容頁面圖

因為網頁是下滑條式的動態頁面,只有頁面不斷往下拉,不斷“查看更

多”,美食數據才會不斷增加。所以我們要先找到“查找更多”按鈕,再設置

頁面不斷往下拉,以此循環,當數據量達到要求時停止,不必一直拉,頁面沒

有盡頭。

圖3-7刷新數據代碼圖

完整代碼實現如下:

fromseleniumimportwebdriver

frommon.byimportBy

importrequests

importtime

importcsv

8

湖南商務職業技術學院畢業設計

frombs4importBeautifulSoup

driver=webdriver.Edge()

driver.get('/recipe.html')

driver.maximize_window()

driver.execute_script("window.scrollTo(0,document.body.scrollHeight)")

read_mores=driver.find_element(By.XPATH,'//*[@id="recipeindex_living_loading"]/a')

read_mores.click()

driver.execute_script('window.scrollBy(0,170)')

foriinrange(0,27):

driver.execute_script('window.scrollBy(0,130)')

time.sleep(2)

read_mores=driver.find_element(By.XPATH,'//*[@id="recipeindex_living_loading"]/a')

read_mores.click()

time.sleep(1)

html=driver.page_source

soup=BeautifulSoup(html,'html.parser')

Rookie=soup.find('ul',class_='on')

tags=Rookie.find_all('a')

Url_list=[]

fortagintags:

url=str(tag.get('href')).strip()

Url_list.append(url)

driver.quit()

Dish_name=[]

usename=[]

User_name=[]

Flavor=[]

Workmanship=[]

Time_consuming=[]

Kitchenware2=[]

Kitchenware=[]

Classification=[]

Food_ingredients=[]

Food_ingredients2=[]

Main_material=[]

a=[]

a2=[]

Accessories=[]

b=[]

b2=[]

Seasoning=[]

c=[]

9

湖南商務職業技術學院畢業設計

c2=[]

Step=[]

z=[]

foriinrange(0,len(Url_list),2):

ua={

'User-Agent':'Mozilla/5.0(WindowsNT10.0;Win64;x64)AppleWebKit/537.36

(KHTML,likeGecko)Chrome/Safari/537.36Edg/108.0.1462.42'

}

html=requests.get(url=Url_list[i],headers=ua)

soup=BeautifulSoup(html.content,'html.parser')

name=soup.find('h1',class_='recipe_De_title')

name=name.find('a')

Dish_name.append(name.get_text())

username=soup.find('span',class_='userName')

usename.append(username)

User_name.append(username.get_text())

flavor=soup.find('div',class_='recipeCategory_sub_Rmt30clear')

flavor2=flavor.find_all('a')

Flavor.append(flavor2[0].string)

Workmanship.append(flavor2[1].string)

Time_consuming.append(flavor2[2].string)

kitchenware=soup.find_all('div',class_='recipeTipmt16')[1]

Kitchenware2.append(kitchenware.get_text())

foriinKitchenware2:

z=str()

forjini[12:-2]:

ifj=='\n':

break

else:

z+=j

Kitchenware.append(z)

iflen(Classification)==896:

continue

else:

classification2=(soup.find_all('div',class_='recipeTipmt16')[2]).find('a').string

Classification.append(classification2)

Main=soup.find_all(class_='particulars')

foriinrange(0,len(Main)):

10

湖南商務職業技術學院畢業設計

ifMain[i].find('legend').get_text()=='主料':

Main_material2=Main[i].find('ul').get_text()

a.append(Main_material2)

elifMain[i].find('legend').get_text()=='輔料':

Accessories2=Main[i].find('ul').get_text()

b.append(Accessories2)

else:

Seasoning2=Main[i].find('ul').get_text()

c.append(Seasoning2)

whilelen(a)!=len(b)orlen(a)!=len(c)orlen(b)!=len(c):

x=len(a)

y=len(b)

w=len(c)

num=[x,y,w]

num.sort()

ifnum[0]==x:

a.append('無')

elifnum[0]==y:

b.append('無')

else:c.append('無')

step=soup.find('div',class_='recipeStep')

str1=str()

word=step.find('ul')

word3=word.find_all('div',class_='recipeStep_word')

foriinrange(0,len(word3)):

str1+=word3[i].get_text()

Step.append(str1)

foriina:

a2.append(i.replace('\n',''))

foriinb:

b2.append(i.replace('\n',''))

foriinc:

c2.append(i.replace('\n',''))

withopen("data.csv","w",encoding='utf-8',newline="")asfile:

writer=csv.writer(file,lineterminator="\n")

writer.writerow(['美食名','上傳用戶名','口味','工藝類別','耗時','使用廚具','所屬類別','主料','

輔料','調料','做法步驟'])

11

湖南商務職業技術學院畢業設計

writer.writerows(zip(Dish_name,User_name,Flavor,Workmanship,Time_consuming,Kitchenware

,Classification,a2,b2,c2,Step))

file.close()

4數據清洗與處理

得到龐大的數據后,我們就需要對數據進行預處理操作,確保爬到的數據

里面沒有無效值、錯誤值、空值,要保證數據的一致性。數據清洗技術的實施,

能夠確保得到的數據保持一致并沒有過多的錯誤,方便更好的進行數據分析。

4.1數據清洗

圖4-1數據清洗準備頁面圖

經過檢查,發現數據不存在缺失、錯位還有空值。那么我們根據需求將有

效數據統一規劃,去掉不要的行或列,防止數據冗余。得到新的數據重新儲存,

留存后續分析、可視化使用。

如數據中的“上傳用戶名”我們做分析時不需要,因此去掉。如圖4-2。

圖4-2清洗后的數據圖

12

湖南商務職業技術學院畢業設計

4.2數據儲存

Python常用的五種數據存儲方式:

Json格式:該種格式可以進行數據間的交換,對數據的表示是使用的是獨

立的編程語言,對數據存儲采用的文本格式。層次清晰,可以方便閱讀和理解,

同時還可以讓Python解釋器對文件進行解釋和生成,有效的提高了開發傳輸的

效率。

Csv格式:這類文件與平時使用的excel文件相似,將數據儲存為該格式的

話,可以直接在系統磁盤中找到對應保存文件進行瀏覽,方便再次查看數據。

Mysql數據庫:這是用的最多的一種方式。這種方式存儲數據可以直接對數

據進行處理,實現數據的增刪改查。

Redis數據庫:這種數據庫對數據存儲會比較方便快速,不過通常在使用過

程中我們要對數據進行轉換,把數據轉換為字符串,然后再進行操作。

Mongdb數據庫:這類數據庫最大的優點就是對數據結構要求不是特別高,

就是在數據的提取時要進行數據整理,不然到后面數據會比較亂。

這里項目用csv的文件格式保存清洗后的數據,文件名為data2,用來儲存

清洗后的數據,index=false輸出不顯示索引值,編碼方式為utf-8,如圖4-3。

圖4-3數據重新存儲圖

4.3編程實現

讀取已經清理的數據文件。

圖4-4清洗的數據圖

13

湖南商務職業技術學院畢業設計

如圖4-4,我們的新數據中“上傳用戶名”已經被剔除,方便后面我們對數

據進行操作。

5數據統計與分析

5.1數據準備

利用PyCharm軟件,導入相關庫,并加載源數據,如圖5-1、5-2。

圖5-1數據準備頁面圖

圖5-2數據加載頁面圖

14

湖南商務職業技術學院畢業設計

5.2數據展示

5.2.1依據美食口味進行統計分析

圖5-3數據展示頁面圖

將數據“口味”字段數據匯總,生成字典數據,按照詞頻生成詞云,如圖5-3

中可以看出在飲食中,大家對美食的口味更傾向于“咸鮮”。而“清淡”與“原

味”居于其后,也都是很受大家喜歡的口味。這種現象可能與這幾年的中國人

幾乎發展為無辣不歡的地步有關系,更多的人開始偏向“零添加”的食品,比

起以往中國的大眾口味,各式的調料香味,現在的人可能更喜歡食材的原汁原

味,要的就是一個“鮮”。目前中國本土很多美食店都在做“鮮食”,將“食

材”作為他們的賣點。“吃食材”時代悄然來臨,大家更喜歡天然的味道,近

些年中國人的神經已經被食品安全問題折磨的脆弱不堪。問題的本身就是大家

想保持身體健康,但光吃“食材”是不夠的,我們還要配上“五谷”。這可能

會是未來食品的發展趨勢,要以五谷為主。為什么呢?近幾年出現出現的一系

列的“現代病”,大家逐漸意志到谷物對我們人體營養結構的重要性,谷物類

食品對人體的好處實在太多。如蒙牛推出了含有谷物的酸奶產品,很受大家喜

歡,銷售非常火。之后還推了“真谷粒”系列,多種口味,銷量非常不錯。

15

湖南商務職業技術學院畢業設計

5.2.2依據使用廚具進行統計分析

圖5-4數據展示頁面圖

從圖5-4條形圖中可以看出大家制作美食使用的工具更多的是家常用的

“炒鍋”,次數遠遠要高于其它工具。“炒鍋”作為最常用的炊具,它在炒菜

時溶解出來的少量鐵元素,這是可以直接被人體吸引利用的,對我們的健康也

是有益的,而且“炒鍋“使用起來也是相當方便,它在第一也是非常正常的現

象。其次受歡迎的是“煮鍋”,也是很容易使用的工具,它可以完成生活中大

部分的烹飪事務,對口味比較愛“鮮”的人來說,這可能是廚房必備的了。在

廚房里,不銹鋼廚具制品各類繁多,占很大比例(炒鍋、煮鍋)。而在這些廚

具產業中,我們大家熟悉廚具品牌如蘇泊爾、愛任達等,這些在廚具領域也只

處于中高端,市場品牌占有率還是比較低,國內還是缺少有較大影響力的品牌。

隨著廚具市場競爭的不斷加劇,消費者們的品牌意識逐漸增強,國內對品牌消

費也將會越來越受到重視,總得來說咱們國內品牌消費水準還存在巨大的發展

空間。

5.2.3依據工藝類別進行統計分析

16

湖南商務職業技術學院畢業設計

圖5-5數據展示頁面圖

從圖5-5中可以得知“炒”所在的占比非常多,“煮”其次。與前面圖5-4

的“廚具”相呼應。“炒”是制作美食最快的方式之一,而且易于讓成色不太

好的原料染上香料的味道進行掩蓋,而且在其中加入的調料品種類繁多,更能

滿足大家對味蕾的需要,做出的美食更能吸引人,最關鍵的是它時間少,更適

合日常食譜。“煮”的方式對美食的質感大多是以鮮嫩為主要,它做出的美食

口味以鮮咸、清香為主,更符合現在大家的口味。在“炒”這種方式中,鹽是

必不可少的一種佐料。如今鹽市場各有各的特色,擁有了更多選擇。而近幾年,

由于品種鹽盈利更強,慢慢隨著鹽類市場競爭的加劇,就會出現更多的高溢價

產品搶占并且細分市場。不過由于管制的相對放開,以后的食鹽的品種只會越

來越多。

5.2.4依據制作時間進行統計分析

17

湖南商務職業技術學院畢業設計

圖5-6數據展示頁面圖

從圖5-6直方圖中可以看出大家制作美食還是比較偏向用時少的,“十分

鐘”、“廿分鐘”、“半小時”這些都是比較讓人能接受的時間,其中“十分

鐘”的具多,符合大多數家常菜,也與現在大家的快節奏有很大關系。很多人

工作忙的時候就覺得做“美食”是一種浪費時間,選擇時間相對來少的一種可

能是大多數人的常態。像如意粉勺、剝蒜器、解凍板等之類的廚房小工具利用

起來可以讓我們省很多時間。市面上這類工具種類繁多,需求量也是比較大的,

而且價格便宜、操作簡單,更主要的是實用性高是真正的賣點。特別是疫情下,

使得居家烹飪大幅增加,更受年輕人的青睞。

5.2.5依據所屬類別進行統計分析

圖5-7代碼及數據展示頁面圖

18

湖南商務職業技術學院畢業設計

我們從圖5-7中可以看出,“熱菜”和“湯類”的數量都非常高。與前面

所分析“使用廚具”結果大致相同。“熱菜”的制作要求時間短,要趁熱食用。

“湯類”我想主要是大家喜歡喝點口味“鮮”的東西(圖5-3),能滿足多數人

的口味需求。“熱菜”的種類是相當多,各有各的特色。近幾年慢慢出現的創

新熱菜,大家根據個人喜好用各類食材搭配,如:醬燜牛肋骨、農家小公雞、

脆皮河鮮豆腐等。如雨后春筍般出現在各大店鋪,更多的會把他們的創新熱菜

定為招牌菜。這類創新熱菜仍有很大空間,如今大眾就喜歡嘗試一些新鮮東西。

5.3綜述

綜上,隨著社會的高速了展,越來越多的人都處在一個快節奏的生活方式

中。生活的緊湊感愈發強烈,這也促使我們在生活的各方面都要求更加的便捷。

現今大家對“美食”的要求廚具簡單、時間短、口味好。簡單的炒鍋、煮鍋,

更能節省很大一部分時間,更符合現在的快節奏生活。快餐式的形式似乎成了

現代大家的飲食習慣。畢竟大多工作疲憊,瑣事繁多,為了那么一道兩道菜扎

進廚房一個小時或者幾個小時,相對來說不現實,而且性價比也確實有些低。

可能更多的人選擇的是點外賣,或者別的一些比較快的方式來解決自己的一日

三餐,這些都取決于時間“快”,口味“鮮”,營養要跟的上,時間還要快。

“美食就是生活。”其實這句話一點也沒錯。跑外賣是真的賺錢,收入與行動

幾乎成正比,多數年輕人就喜歡這種吃飯“偷懶”的方式。另外,近年來不少

餐飲開始做明檔,甚至恨不得把所有美食都拿出來明檔展示。這只是在白費功

夫,明檔只做精,最好是本店的精品或者是招牌菜。而且在營銷上不必費盡心

思,各種歌舞表演,敲鑼打鼓的,讓顧客覺得新鮮好玩。可是這樣不長久,畢

竟顧客是來“吃”的,不是來“看

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論