亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定

Python應用實戰——盤點一個Python面試編程題(附代碼)

大家好,我是皮皮。

一、前言

前几天在Python奥特曼交流群【。。】问了一个Python面试题的问题,一起来看看吧,图片代码分享版本在这个文章,在里边也可以拿到原始的需求数据。这里应粉丝的要求,分享一个代码版本,手残党福利来了!

二、实现过程

其实上一篇文章,我们已经给大家发布了一个图片版本的代码,不过有粉丝反馈图片太模糊了,手敲又有点懒,这里对照着【宝平】给的代码,给大家分享出来,代码如下:

import pandas as pd
import re
import json


file = "login.txt"
df1 = pd.read_table(file, engine="python", header=None)
df1.columns = ["col1"]
df2 = pd.DataFrame(columns=["日期", "id", "lv"])

k = 0
dic1 = {}
for i in df1.index:
    if "levelup" in df1.at[i, "col1"]:
        k += 1
        # print(df1.at[i, "col1"])
        df2.at[k, "日期"] = df1.at[i, "col1"][1:11]
        # df2.at[k, "日期"] = df1.at[i, "col1"]
        pattern = r"{[^}]+}"
        match = re.search(pattern, df1.at[i, "col1"])
        # print(match)
        if match:
            dic1 = json.loads(match.group())
            # print(dic1)
            df2.at[k, "id"] = dic1["id"]
            df2.at[k, "lv"] = dic1["to_lv"]
# print(df2)
df2.drop_duplicates(subset={"日期", "id"}, keep="last", inplace=True)
print(df2)
df2_grouped = df2.groupby(["日期", "lv"]).size().reset_index(name="Count")
print(df2_grouped)

image.png

顺利地解决了粉丝的问题。关键部分在于先对log文件进行遍历,然后判断levelup是否在行中,如果在的话,就进行处理,如果不在的话,就直接pass掉了。针对这个问题,其实需求方已经澄清了,不然会让人误解答案不对。

image.png

三、总结

大家好,我是皮皮。这篇文章主要盘点了一个Python面试编程题的问题,文中针对该问题,给出了具体的解析和代码实现,帮助粉丝顺利解决了问题。

最后感谢粉丝【。。】提问,感谢【宝平】、【刺】给出的思路和代码解析,感谢【莫生气】等人参与学习交流。

【提问补充】温馨提示,大家在群里提问的时候。可以注意下面几点:如果涉及到大文件数据,可以数据脱敏后,发点demo数据来(小文件的意思),然后贴点代码(可以复制的那种),记得发报错截图(截全)。代码不多的话,直接发代码文字即可,代码超过50行这样的话,发个.py文件就行。

image.png

點擊查看更多內容
TA 點贊

若覺得本文不錯,就分享一下吧!

評論

作者其他優質文章

正在加載中
  • 推薦
  • 評論
  • 收藏
  • 共同學習,寫下你的評論
感謝您的支持,我會繼續努力的~
掃碼打賞,你說多少就多少
贊賞金額會直接到老師賬戶
支付方式
打開微信掃一掃,即可進行掃碼打賞哦
今天注冊有機會得

100積分直接送

付費專欄免費學

大額優惠券免費領

立即參與 放棄機會
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號

舉報

0/150
提交
取消