sponsored links

​爬取貓眼《長津湖》影評分析觀影群眾資訊,還進行了明日票房預測

對於這個十一黃金週的電影市場,絕對是《長津湖》的天下,短短几天,票房就已經突破36億,大有奮起直追《戰狼2》的盡頭。而且口碑也是相當的高,貓眼評分高達9.5,絕對的票房口碑雙豐收啊

​爬取貓眼《長津湖》影評分析觀影群眾資訊,還進行了明日票房預測

下面我們就透過爬取貓眼的電影評論,進行相關的視覺化分析,看看為什麼這部電影是如此的受歡迎,最後還進行了簡單的票房預測,你一定不能錯過哦
資料獲取
貓眼評論爬取,還是那麼老一套,直接構造 API 介面資訊即可
url = "https://m.maoyan.com/mmdb/comments/movie/257706.json?v=yes&offset=30"

payload={}
headers = {
 'Cookie': '_lxsdk_cuid=17c188b300d13-0ecb2e1c54bec6-a7d173c-100200-17c188b300ec8; Hm_lvt_703e94591e87be68cc8da0da7cbd0be2=1633622378; _lx_utm=utm_source%3DBaidu%26utm_medium%3Dorganic; __mta=87266087.1633622378325.1633622378325.1633622378325.1; uuid_n_v=v1; iuuid=ECBA18D0278711EC8B0DFD12EB2962D2C4A641A554EF466B9362A58679FDD6CF; webp=true; ci=55%2C%E5%8D%97%E4%BA%AC; ci=55%2C%E5%8D%97%E4%BA%AC; ci=55%2C%E5%8D%97%E4%BA%AC; featrues=[object Object]; _lxsdk=92E6A4E0278711ECAE4571A477FD49B513FE367C52044EB5A6974451969DD28A; Hm_lpvt_703e94591e87be68cc8da0da7cbd0be2=1633622806',
 'Host': 'm.maoyan.com',
 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.61 Safari/537.36'
}

response = requests.request("GET", url, headers=headers, data=payload)

print(response.json())

這麼幾行程式碼,我們就可以得到如下結果

​爬取貓眼《長津湖》影評分析觀影群眾資訊,還進行了明日票房預測

獲取到資料後,我們就可以解析返回的 json 資料,並儲存到本地了
先寫一個儲存資料的函式

def save_data_pd(data_name, list_info):
 if not os.path.exists(data_name + r'_data.csv'):
 # 表頭
        name = ["comment_id","approve","reply","comment_time","sureViewed","nickName",
 "gender","cityName","userLevel","user_id","score","content"]
 # 建立DataFrame物件
        file_test = pd.DataFrame(columns=name, data=list_info)
 # 資料寫入
        file_test.to_csv(data_name + r'_data.csv', encoding='utf-8', index=False)
 else:
 with open(data_name + r'_data.csv', 'a+', newline='', encoding='utf-8') as file_test:
 # 追加到檔案後面
            writer = csv.writer(file_test)
 # 寫入檔案
            writer.writerows(list_info)

直接透過 Pandas 來儲存資料,可以省去很多資料處理的事情
接下來編寫解析 json 資料的函式

def get_data(json_comment):
    list_info = []
 for data in json_comment:
        approve = data["approve"]
        comment_id = data["id"]
        cityName = data["cityName"]
        content = data["content"]
        reply = data["reply"]
 # 性別:1男,2女,0未知
 if "gender" in data:
            gender = data["gender"]
 else:
            gender = 0
        nickName = data["nickName"]
        userLevel = data["userLevel"]
        score = data["score"]
        comment_time = data["startTime"]
        sureViewed = data["sureViewed"]
        user_id = data["userId"]
        list_one = [comment_id, approve, reply,  comment_time, sureViewed, nickName, gender, cityName, userLevel,
                    user_id, score, content]
        list_info.append(list_one)
    save_data_pd("maoyan", list_info)

我們把幾個主要的資訊提取出來,比如使用者的 nickname,評論時間,所在城市等等
最後把上面的程式碼整合,並構造爬取的 url 即可

def fire():
    tmp = "https://m.maoyan.com/mmdb/comments/movie/257706.json?v=yes&offset="

    payload={}
    headers = {
 'Cookie': '_lxsdk_cuid=17c188b300d13-0ecb2e1c54bec6-a7d173c-100200-17c188b300ec8; Hm_lvt_703e94591e87be68cc8da0da7cbd0be2=1633622378; _lx_utm=utm_source%3DBaidu%26utm_medium%3Dorganic; __mta=87266087.1633622378325.1633622378325.1633622378325.1; uuid_n_v=v1; iuuid=ECBA18D0278711EC8B0DFD12EB2962D2C4A641A554EF466B9362A58679FDD6CF; webp=true; ci=55%2C%E5%8D%97%E4%BA%AC; ci=55%2C%E5%8D%97%E4%BA%AC; ci=55%2C%E5%8D%97%E4%BA%AC; featrues=[object Object]; _lxsdk=92E6A4E0278711ECAE4571A477FD49B513FE367C52044EB5A6974451969DD28A; Hm_lpvt_703e94591e87be68cc8da0da7cbd0be2=1633622806',
 'Host': 'm.maoyan.com',
 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.61 Safari/537.36'
    }
 for i in range(0, 3000, 15):
        url = tmp + str(i)
        print(url)
        response = requests.request("GET", url, headers=headers, data=payload)
        comment = response.json()
 if not comment.get("hcmts"):
 break
        hcmts = comment['hcmts']
        get_data(hcmts)
        cmts = comment['cmts']
        get_data(cmts)
        time.sleep(10)

爬取過程如下

​爬取貓眼《長津湖》影評分析觀影群眾資訊,還進行了明日票房預測

儲存到本地的資料如下

下面我們就可以進行相關的視覺化分析了
視覺化分析
1 資料清洗
我們首先根據 comment_id 來去除重複資料

df_new = df.drop_duplicates(['comment_id'])

對於評論內容,我們進行去除非中文的操作

def filter_str(desstr,restr=''):
 #過濾除中文以外的其他字元
    res = re.compile("[^\u4e00-\u9fa5^,^,^.^。^【^】^(^)^(^)^“^”^-^!^!^?^?^]")
 # print(desstr)
    res.sub(restr, desstr)

2 評論點贊及回覆榜
我們先來看看哪些評論是被點贊最多的

approve_sort = df_new.sort_values(by=['approve'], ascending=False)

approve_sort = df_new.sort_values(by=['approve'], ascending=False)
x_data = approve_sort['nickName'].values.tolist()[:10]
y_data = approve_sort['approve'].values.tolist()[:10]

b = (Bar()
     .add_xaxis(x_data)
     .add_yaxis('',y_data)
     .set_global_opts(title_opts = opts.TitleOpts(title='評論點贊前十名'))
     .set_series_opts(label_opts=opts.LabelOpts(is_show=True,position='right'))
     .reversal_axis()
)
grid = Grid(init_opts=opts.InitOpts(theme=ThemeType.VINTAGE))
grid.add(b, grid_opts=opts.GridOpts(pos_left="20%"))
grid.render_notebook()

可以看到位於榜首的是一個叫“琦寶”的觀眾寫的評論,點贊量高達86027
再來看看評論回覆的情況

reply_sort = df_new.sort_values(by=['reply'], ascending=False)
x_data = reply_sort['nickName'].values.tolist()[:10]
y_data = reply_sort['reply'].values.tolist()[:10]

b = (Bar()
     .add_xaxis(x_data)
     .add_yaxis('',y_data)
     .set_global_opts(title_opts = opts.TitleOpts(title='評論回覆前十名'))
     .set_series_opts(label_opts=opts.LabelOpts(is_show=True,position='right'))
     .reversal_axis()
)
grid = Grid(init_opts=opts.InitOpts(theme=ThemeType.VINTAGE))
grid.add(b, grid_opts=opts.GridOpts(pos_left="20%"))
grid.render_notebook()

回覆量最高的同樣是“琦寶”的評論,很好奇,他到底寫了什麼呢,快來看看

df_new[df_new['nickName'].str.contains('琦寶')]['content'].values.tolist()[0]

Output:
'印象中第一次一大家子一起來看電影,姥爺就是志願軍,他一輩子沒進過電影院,開始還擔心會不會不適應,感謝影院工作人員的照顧,姥爺全程非常投入,我坐在旁邊看到他偷偷抹了好幾次眼淚,剛才我問電影咋樣,一直唸叨“好,好哇,我們那時候就是那樣的,就是那樣的……”\n忽然覺得歷史長河與我竟如此之近,剛剛的三個小時我看到的是遙遠的70年前、是教科書裡的戰爭,更是姥爺的19歲,是真真切切的、他的青春年代!'

還真的是非常走心的評論,而且自己的家人就有經歷過長津湖戰役的經歷,那麼在影院觀影的時候,肯定會有不一樣的感受!
當然我們還可以爬取每條評論的reply資訊,透過如下介面

https://i.maoyan.com/apollo/apolloapi/mmdb/replies/comment/1144027754.json?v=yes&offset=0

只需要替換 json 檔名稱為對應的 comment_id 即可,這裡就不再詳細介紹了,感興趣的朋友自行探索呀
下面我們來看一下整體評論資料的情況
3 各城市排行
來看看哪些城市的評論最多呢

result = df_new['cityName'].value_counts()[:10].sort_values()
x_data = result.index.tolist()
y_data = result.values.tolist()

b = (Bar()
     .add_xaxis(x_data)
     .add_yaxis('',y_data)
     .set_global_opts(title_opts = opts.TitleOpts(title='評論城市前十'))
     .set_series_opts(label_opts=opts.LabelOpts(is_show=True,position='right'))
     .reversal_axis()
)
grid = Grid(init_opts=opts.InitOpts(theme=ThemeType.VINTAGE))
grid.add(b, grid_opts=opts.GridOpts(pos_left="20%"))
grid.render_notebook()

一線大城市紛紛上榜,看來這些城市的愛國主義教育做的還是要好很多呀
再來看看城市的全國地圖分佈

result = df_new['cityName'].value_counts().sort_values()
x_data = result.index.tolist()
y_data = result.values.tolist()
city_list = [list(z) for z in zip(x_data, y_data)]

可以看到,這個評論城市的分佈,也是與我國總體經濟的發展情況相吻合的
4 性別分佈
再來看看此類電影,對什麼性別的觀眾更具有吸引力

attr = ["其他","男","女"]

b = (Pie()
     .add("", [list(z) for z in zip(attr, df_new.groupby("gender").gender.count().values.tolist())])
     .set_global_opts(title_opts = opts.TitleOpts(title='性別分佈'))
     .set_series_opts(label_opts=opts.LabelOpts(is_show=True,position='right'))
)
grid = Grid(init_opts=opts.InitOpts(theme=ThemeType.VINTAGE))
grid.add(b, grid_opts=opts.GridOpts(pos_left="20%"))
grid.render_notebook()

在填寫了性別的資料當中,女性竟然多一些,這還是比較出乎意料的
5 是否觀看
貓眼是可以在沒有觀看電影的情況下進行評論的,我們來看看這個資料的情況

result = df_new["sureViewed"].value_counts()[:10].sort_values().tolist()
b = (Pie()
     .add("", [list(z) for z in zip(["未看過", "看過"], result)])
     .set_global_opts(title_opts = opts.TitleOpts(title='是否觀看過'))
     .set_series_opts(label_opts=opts.LabelOpts(is_show=True,position='right'))
)
grid = Grid(init_opts=opts.InitOpts(theme=ThemeType.VINTAGE))
grid.add(b, grid_opts=opts.GridOpts(pos_left="20%"))
grid.render_notebook()

大部分人都是在觀看了之後才評論的,這要在一定程度上保證了評論和打分的可靠性
6 評分分佈
貓眼頁面上是10分制,但是在介面當中是5分制

result = df_new["score"].value_counts().sort_values()
x_data = result.index.tolist()
y_data = result.values.tolist()

b = (Bar()
     .add_xaxis(x_data)
     .add_yaxis('',y_data)
     .set_global_opts(title_opts = opts.TitleOpts(title='評分分佈'))
     .set_series_opts(label_opts=opts.LabelOpts(is_show=True,position='right'))
     .reversal_axis()
)
grid = Grid(init_opts=opts.InitOpts(theme=ThemeType.VINTAGE))
grid.add(b, grid_opts=opts.GridOpts(pos_left="20%"))
grid.render_notebook()

可以看到5-4.5評論佔據了大部分,口碑是真的好啊
7 評論時間分佈
對於評論時間,我這裡直接使用了原生的 echarts 來作圖

from collections import Counter
result = df_new["comment_time"].values.tolist()
result = [i.split()[1].split(":")[0] + "點" for i in result]
result_dict = dict(Counter(result))
result_list = []
for k,v in result_dict.items():
    tmp = {}
    tmp['name'] = k
    tmp['value'] = v
    result_list.append(tmp)

children_dict = {"children": result_list}

示例地址:https://echarts.apache.org/examples/zh/editor.html?c=treemap-sunburst-transition

​爬取貓眼《長津湖》影評分析觀影群眾資訊,還進行了明日票房預測

能夠看出,在晚上的19點和20點,都是大家寫評論的高峰期,一天的繁忙結束後,寫個影評放鬆下
8 每天評論分佈
接下來是每天的評論分佈情況

result = df_new["comment_time"].values.tolist()
result = [i.split()[0] for i in result]
result_dict = dict(Counter(result))
b = (Pie()
     .add("", [list(z) for z in zip(result_dict.keys(), result_dict.values())])
     .set_global_opts(title_opts = opts.TitleOpts(title='每天評論數量'))
     .set_series_opts(label_opts=opts.LabelOpts(is_show=True,position='right'))
)
grid = Grid(init_opts=opts.InitOpts(theme=ThemeType.VINTAGE))
grid.add(b, grid_opts=opts.GridOpts(pos_left="20%"))
grid.render_notebook()

就目前來看,幾乎所有的評論都集中在10月8號,難道是上班第一天,不想上班,只想摸魚? <br/>9 使用者等級分佈
來看下貓眼評論使用者的等級情況,雖然不知道這個等級有啥用

result = df_new['userLevel'].value_counts()[:10].sort_values()
x_data = result.index.tolist()
y_data = result.values.tolist()

b = (Bar()
     .add_xaxis(x_data)
     .add_yaxis('',y_data)
     .set_global_opts(title_opts = opts.TitleOpts(title='使用者等級'))
     .set_series_opts(label_opts=opts.LabelOpts(is_show=True,position='right'))
     .reversal_axis()
)
grid = Grid(init_opts=opts.InitOpts(theme=ThemeType.VINTAGE))
grid.add(b, grid_opts=opts.GridOpts(pos_left="20%"))
grid.render_notebook()

大家基本都是 level2,哈哈哈哈,普羅大眾嘛
10 主創提及次數
我們再來看看在評論中,各位主創被提及的次數情況

name = ["吳京",
"易烊千璽",
"段奕宏",
"朱亞文",
"李晨",
"胡軍",
"王寧",
"劉勁",
"盧奇",
"曹陽",
"李軍",
"孫毅",
"易",
"易烊",
"千璽"
]
def actor(data, name):
    counts = {}
    comment = jieba.cut(str(data), cut_all=False)
 # 去停用詞
 for word in comment:
 if word in name:
 if word == "易" or word == "千璽" :
                word = "易烊千璽"
            counts[word] = counts.get(word,0)+1
 return counts
counts = actor(','.join(df_comment.values.tolist()), name)

毫無疑問,易烊千璽高舉榜首,可能媽媽粉比較多吧,不過人家演技確實也線上
11 評論詞雲
最後來看看評論的詞雲情況吧

font = r'C:\Windows\Fonts\FZSTK.TTF'
STOPWORDS = {"回覆", "@", "我", "她", "你", "他", "了", "的", "吧", "嗎", "在", "啊", "不", "也", "還", "是",
 "說", "都", "就", "沒", "做", "人", "趙薇", "被", "不是", "現在", "什麼", "這", "呢", "知道", "鄧", "我們", "他們", "和", "有", "", "",
 "要", "就是", "但是", "而", "為", "自己", "中", "問題", "一個", "沒有", "到", "這個", "並", "對"}

def wordcloud(data, name, pic=None):
    comment = jieba.cut(str(data), cut_all=False)
    words = ' '.join(comment)
    img = Image.open(pic)
    img_array = np.array(img)
    wc = WordCloud(width=2000, height=1800, background_color='white', font_path=font, mask=img_array,
                   stopwords=STOPWORDS, contour_width=3, contour_color='steelblue')
    wc.generate(words)
    wc.to_file(name + '.png')

明日票房預測
這裡我們使用線性迴歸來進行簡單的票房預測,畢竟票房是一個超級複雜的事物,沒有辦法完全準確的進行預估計
我們先透過 AKShare 庫來獲取這幾天《長津湖》的票房情況

movie_boxoffice_daily_df = ak.movie_boxoffice_daily(date="20211008")
print(movie_boxoffice_daily_df)
movie_boxoffice_daily_df[movie_boxoffice_daily_df['影片名稱'].str.contains('長津湖')]['單日票房'].values.tolist()[0]

接下來畫散點圖,看下趨勢情況

def scatter_base(choose, values, date) -> Scatter:
    c = (
        Scatter()
        .add_xaxis(choose)
        .add_yaxis("%s/每天票房" % date, values)
        .set_global_opts(title_opts=opts.TitleOpts(title=""),
 # datazoom_opts=opts.DataZoomOpts(),
                         yaxis_opts=opts.AxisOpts(
                axislabel_opts=opts.LabelOpts(formatter="{value} /萬")
            )
                        )
        .set_series_opts(label_opts=opts.LabelOpts(is_show=False))
    )
 return c

date_list = create_assist_date("20211001", "20211008")
value_list = get_data("長津湖", date_list)
scatter_base(date_list, value_list, '長津湖').render_notebook()

可以看到,從一號開始,單日票房逐步增長,7號達到最高峰,8號開始回落
下面我們來進行資料擬合,使用 sklearn 提供的 linear_model 來進行

date_list = create_assist_date("20211001", "20211008")
value_list = get_data("長津湖", date_list)
X = np.array([1001, 1002, 1003, 1004, 1005, 1006, 1007, 1008])
X = X.reshape(-1, 1)
y = value_list
model = pl.make_pipeline(
    sp.PolynomialFeatures(5),  # 多項式特徵拓展器
    lm.LinearRegression()  # 線性迴歸器
)
# 訓練模型
model.fit(X, y)
# 求預測值y
pred_y = model.predict(X)
print(pred_y)
# 繪製多項式迴歸線

px = np.linspace(X.min(), X.max(), 1000)
px = px.reshape(-1, 1)
pred_py = model.predict(px)

# 繪製圖像
mp.figure("每天票房資料", facecolor='lightgray')
mp.title('每天票房資料 Regression', fontsize=16)
mp.tick_params(labelsize=10)
mp.grid(linestyle=':')
mp.xlabel('x')
mp.ylabel('y')

mp.scatter(X, y, s=60, marker='o', c='dodgerblue', label='Points')
mp.plot(px, pred_py, c='orangered', label='PolyFit Line')
mp.tight_layout()
mp.legend()
mp.show()

再根據擬合的結果,我們來預測下明天的票房情況
好啦,坐等明天開獎

分類: 娛樂
時間: 2021-10-12

相關文章

因為你們拼死一戰,山河才無恙!血戰長津湖27軍老兵丁德榮還活著
長津湖是冰和雪,是極寒的代名詞,更是中美兩支王牌在70年前生死較量的戰場.長津湖是朝鮮北部最大的人工蓄水湖,位於赴戰嶺山脈與狼林山脈之間.老兵丁德榮晚年依然清晰地說出呈v字型繞著長津湖的三個地名,柳潭 ...

午間星聞 | 有意觸球?救球?姆巴佩絕殺球是否越位引發爭議;劇本打磨5年多、細緻籌備2年多,《長津湖》是這樣煉成的

午間星聞 | 有意觸球?救球?姆巴佩絕殺球是否越位引發爭議;劇本打磨5年多、細緻籌備2年多,《長津湖》是這樣煉成的
足球規則太複雜了!姆巴佩絕殺球是否越位引發爭議:什麼叫有意觸球,什麼叫救球? 北京時間10月11日凌晨,在歐國聯決賽中法國2:1戰勝西班牙,比賽第80分鐘,姆巴佩打進制勝球.不過對於這粒進球是否越位, ...

從保衛祖國到建設祖國、以真實人物為原型 解密《長津湖》《火紅年華》共同的DNA
<火紅年華>劇照 9月25日,原創工業史詩題材電視劇<火紅年華>登陸CCTV-1,"好人好馬上三線"的三線精神鼓舞人心.9月30日,以抗美援朝戰爭中長津湖戰 ...

《長津湖》爆紅,這4位國家一級演員功不可沒!神還原人物原型

《長津湖》爆紅,這4位國家一級演員功不可沒!神還原人物原型
不用多說,最近電影的領跑者非<長津湖>莫屬. 截至10月11日,票房已突破41億,位居中國電影票房總榜第七!觀影人次超8200萬. 這個資料仍在不斷重新整理. 同時,<長津湖> ...

長津湖戰役:缺衣少食的志願軍,何以成為美軍噩夢?

長津湖戰役:缺衣少食的志願軍,何以成為美軍噩夢?
一. 71年前的國慶前夕,28歲的楊根思激動得徹夜難眠. 他和26歲的周文江.33歲的陳寶富.34歲的毛杏表作為20軍選出的"全國戰鬥英雄",赴北京參加"第一次全國戰鬥英 ...

-40℃作戰、197653人犧牲,《長津湖》的意義,不僅是7連的兄弟情

-40℃作戰、197653人犧牲,《長津湖》的意義,不僅是7連的兄弟情
長津湖徹底燃炸了! 7天國慶電影檔總票房43.87億,<長津湖>一騎絕塵包圓了35億,還打破12項影史記錄. 不僅票房可喜,看了的網友,都因志願軍戰士們的精神,而破防連連: 電影結束時,許 ...

《長津湖》破37億,隱藏彩蛋曝光:比電影更心酸的,是背後的故事

《長津湖》破37億,隱藏彩蛋曝光:比電影更心酸的,是背後的故事
Slowtime | 慢時光 文/時光君-雙木 慢時光原創,轉載請聯絡 毫不意外. <長津湖>,爆了. 上映9天,總票房已突破37億,打破12項票房紀錄. 它最動人之處,不是投資13億,動 ...

這個《長津湖》的取景地,沒想到還是座隱藏的美食天堂

這個《長津湖》的取景地,沒想到還是座隱藏的美食天堂
在這個長假期間,不管是外出旅遊還是在家休息,大家在朋友圈一定都刷到了一部電影--<長津湖>. 豆瓣電影截圖 首日上映票房就破了2億,還打破了5項票房紀錄,截至10月6日15時,票房已破28 ...

毛主席對長津湖一戰的總結和評價!毛主席分析的超級到位

毛主席對長津湖一戰的總結和評價!毛主席分析的超級到位
毛主席對長津湖一戰的總結和評價!毛主席分析的超級到位! 毛主席對長津湖一戰的總結和評價!毛主席分析的超級到位! 毛主席對長津湖一戰的總結和評價!毛主席分析的超級到位!您感覺呢?

長津湖戰役後,打掃戰場時的經歷比戰鬥更殘酷,傷員自己往回爬

長津湖戰役後,打掃戰場時的經歷比戰鬥更殘酷,傷員自己往回爬
長津湖戰役,志願軍九兵團把不可一世的美軍陸戰隊,陸戰一師重新打回了海里,因此付出了14000人的傷亡,30000人因寒冷減員,凍傷比例高達33%,美軍因為寒冷減員7000多人,這還是因為美軍有暖和的鴨 ...

《長津湖》首波影評出爐,之前嫌片長的人看完居然都說沒看夠?

《長津湖》首波影評出爐,之前嫌片長的人看完居然都說沒看夠?
"震撼!""史詩級鉅製!" "心潮澎湃難以平靜!""三小時居然沒看夠!" "看完<長津湖>,我已經 ...

《長津湖》取景地,原來是這麼荒涼的小村

《長津湖》取景地,原來是這麼荒涼的小村
今年國慶,<長津湖>破了無數觀眾的防.然而瀏覽它的創作背景時,我在取景地一欄意外看到一個叫我眼前一亮的名字:步路鄉. 這個地方我知道,那是我在浙江考察古鎮古村時去過的一個小村落.它在臺州仙 ...

長津湖之戰中,為何89師凍傷最少,老戰士回憶:師長有遠見

長津湖之戰中,為何89師凍傷最少,老戰士回憶:師長有遠見
近期,電影<長津湖>在全國熱映,該片以鋼七連為切入點,展現了志願軍頑強作戰,英勇不屈的戰鬥精神,筆者認為這片子是近年來反映抗美援朝精神的最佳影片. 電影中,志願軍最大的敵人除了美軍外,就是 ...

《長津湖》裡面有句話,非常值得玩味
文章來自微信公眾號:記憶承載.歡迎關注閱讀全文. 今天這篇是電影<長津湖>的影評,又不是. 說它是,是因為看了電影之後有感而發,說它不是,你們請放心,咱們今兒個不劇透,看完影評再看電影不影 ...

揭秘《長津湖》背後的氣象故事:那年冬天,為何如此寒冷?

揭秘《長津湖》背後的氣象故事:那年冬天,為何如此寒冷?
這個"十一檔",最讓人期待的電影,莫過於<長津湖>!從在北京電影節超前點映起,這部影片的口碑就"炸"了!這部反映抗美援朝中長津湖之戰的主旋律電影,片 ...

陣亡,投降,當逃兵,頑抗到底,長津湖戰役中的各種美國軍官

陣亡,投降,當逃兵,頑抗到底,長津湖戰役中的各種美國軍官
前言:1950年10月26日,那天是美國海軍陸戰隊第1師師長史密斯將軍的57歲生日,他的海軍陸戰隊第1師這天在朝鮮半島東海岸的元山登陸,兩天後,他下令47歲的小霍默·l·利茨伯格上校指揮第7海軍陸戰隊 ...

《長津湖》畔風雪夜,崢嶸歲月平九州
#電影長津湖# 前幾日,觀影<長津湖>. 豆瓣評分9.5,上一次國產軍事類電影掀起江湖風雲,還是<戰狼2>那會. 提前一天買票,依舊只有角落的位置,可見爆滿的程度. 有人去看帥 ...

美軍視角下的長津湖戰役和志願軍

美軍視角下的長津湖戰役和志願軍
隨著電影<長津湖>的熱映,七十年前中國志願軍那段用生命和信念換來的勝利再次浮現在我們視野中.這裡不妨以對手的視角,來回顧一下這場長津湖戰役,也許感悟會更深! 在遭受中國志願軍第一次戰役的打 ...

長津湖戰役失去四肢左眼,他吞下自己的眼球活命,昏迷93天后醒來

長津湖戰役失去四肢左眼,他吞下自己的眼球活命,昏迷93天后醒來
講述:朱彥夫 整理:歌未央 1950年12月3日凌晨,我所在的26軍77師230團1營2連,剛趕到長津湖別面的袂物裡,突然接到了戰鬥命令,去一個叫下碣隅裡的地方,接替20軍58師阻擊將逃跑的美軍陸戰1 ...