本文介绍了 pandas 将通话数据分割为15分钟的间隔的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!
问题描述
我对蟒蛇和 pandas 还是个新手,虽然我研究了很多关于区间的东西,但我还是找不到解决问题的办法,我希望有人能帮忙
这是我的df示例
df = pd.DataFrame(
data=[['Mel Gibson', 'German', '2021-9-23 14:22:38', 301 ],
['Jim Carrey', 'German', '2021-9-23 14:27:39', 1041 ],
['Mel Gibson', 'German','2021-9-24 13:33:22',12]],
columns=['specialist', 'Language', 'Interval Start', 'status_duration']
)
df['Interval Start'] = pd.to_datetime(df['Interval Start'])
我要做的是将状态持续时间转换为15分钟间隔,并按专家和每天对它们进行分组。
我想要的输出应该如下所示:
df = pd.DataFrame(
data=[['Mel Gibson', 'German', '2021-9-23 14:15:00', 301 ],
['Jim Carrey', 'German', '2021-9-23 14:15:00', 141 ],
['Jim Carrey', 'German', '2021-9-23 14:30:00', 900 ],
['Mel Gibson', 'German','2021-9-24 13:30:00',12]],
columns=['specialist', 'Language', 'Interval Start', 'status_duration']
)
所以基本上我需要将状态持续时间中的秒数分成15分钟的间隔,直到没有剩余的持续时间。
编辑:
我的原始数据如下:
df = pd.DataFrame(
data=[['Mel Gibson', 'German', '2021-9-23 14:22:38', 301 ],
['Mel Gibson', 'German', '2021-9-23 14:27:40', 4678 ],
['Mel Gibson', 'German','2021-9-24 13:33:22',12]],
columns=['specialist', 'Language', 'Interval Start', 'status_duration']
)
df['Interval Start'] = pd.to_datetime(df['Interval Start'])
Henry的代码只给出了第一行的输出,跳过了第二行。
假设呼叫在10:35:00开始,则该间隔(10:30-10:45)不能超过600秒,因为距离开始时间只有10分钟。
推荐答案
一种方法是利用status_duration
,explode
结果的商和余数,最后以秒为单位累加时间:
ref = (df.groupby(["specialist", "Language", pd.Grouper(key="Interval Start", freq="D")], as_index=False)
.agg(status_duration=("status_duration", lambda d: [*([900]*(d.iat[0]//900)), d.iat[0]%900]),
Interval=("Interval Start", "first"))
.explode("status_duration"))
ref["Interval"] = ref["Interval"].dt.floor("15min")+pd.to_timedelta(ref.groupby(ref.index).cumcount()*900, unit="sec")
print (ref)
specialist Language status_duration Interval
0 Jim Carrey German 900 2021-09-23 14:15:00
0 Jim Carrey German 141 2021-09-23 14:30:00
1 Mel Gibson German 301 2021-09-23 14:15:00
2 Mel Gibson German 12 2021-09-24 13:30:00
这篇关于 pandas 将通话数据分割为15分钟的间隔的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持编程学习网!
本站部分内容来源互联网,如果有图片或者内容侵犯您的权益请联系我们删除!