【NLP】通过罪犯在狱中表现的描述来预测罪犯可以被减刑的年份(DF原题)

阅读: 评论:0

【NLP】通过罪犯在狱中表现的描述来预测罪犯可以被减刑的年份(DF原题)

【NLP】通过罪犯在狱中表现的描述来预测罪犯可以被减刑的年份(DF原题)

题目背景

        数据整理自全国减刑、假释、暂予监外执行信息网()公开的减刑判决文书(已对罪犯个人信息脱敏处理),均为真实案件减刑信息,数据集中包含罪犯个人信息、犯罪信息、在狱表现等字段。

datasets文件夹包含训练集和A测试集,文件均是以逗号分隔的csv格式,文件信息分别如下:

文件类别文件名文件内容
训练集train.csv字段{id, fact, label}
测试集A榜testA.csv字段{id, fact}
提交样例submission.csv字段{id, label}

 其中字段说明如下:

字段名类型取值范围字段解释
idstring-案例唯一id标识
factstring-案例描述(罪犯个人信息、犯罪经历、在狱表现等)
labelint{0, 1, …}准许减刑的时长,单位为月

 数据引用

链接:=1111 
提取码:1111

数据内容

import pandas as pddf = pd.read_csv("/content/drive/MyDrive/ds/train.csv",encoding="utf-8")
facts = df['fact']
labels = df['label']print(facts[0])
print(labels [0])""" 犯人描述
罪犯吴智信,男...执行机关所提请减刑的建议,符合法律规定,本院根据该犯未履行原判财产刑的事实及其改造表现事实酌情予以减刑 12 可减刑年份
"""

解题思路

        利用 Tokenizer 建立词库,对每一个罪犯描述进行编码,之后用 pad_sequences 统一矩阵大小,用Sequential模型进行求解。

数据预处理

import re new_facts = []for fact in facts:fact = re.sub(r"[,。、;‘’]"," ",fact)new_facts.append(fact)# 替换掉描述中的标点符号print(new_facts[0])"""
'罪犯陈中盛 男 1954年xx月xx日出生 汉族 湖南省永兴县人 文盲 现在河南省新郑监狱服刑 ... '
"""

词库构建

from tensorflow. import Tokenizer# 词库模型构建model = Tokenizer()         
model.fit_on_texts(new_facts)word_index = model.word_index # 返回的是字典print(word_index)
"""
{'确有悔改表现': 1,'本院认为': 2,'现已审理终结': 3,'经审理查明': 4,'男': 5,'汉族': 6,'文化': 7,'接受教育改造': 8,'报送本院审理': 9,'努力完成劳动任务': 10,'本院依法组成合议庭进行了审理': 11,'接受教育改造;积极参加思想': 12,'初中文化': 13,'职业技术教育;积极参加劳动': 14,'积极参加思想': 15,'判决发生法律效力后交付执行': 16,
}
"""print(len(word_index)) # 479374

数据转换

del_selection import train_test_split
from tensorflow.keras.preprocessing.sequence import pad_sequences# 划分训练和测试集
X_train,X_test,y_train,y_test = train_test_split(new_facts,labels)# 将每个描述转换成矩阵
X_train_fit = s_to_sequences(X_train)
X_test_fit = s_to_sequences(X_test)# 输出最大矩阵长度
i = []
for j in X_test_fit:i.append(len(j))print(max(i))# pad_sequences 填充 统一矩阵大小 padding="post" 表示在后方填充X_train_padd = pad_sequences(X_train_fit,maxlen=250,padding="post")
X_test_padd = pad_sequences(X_test_fit,maxlen=250,padding="post")

模型构建与训练

import tensorflow as tf
from tensorflow.keras.layers import Dense,Embedding,GlobalAveragePooling1D,Dropoutmodel1 = tf.keras.Sequential([Embedding(500000,64,input_length=250), # 嵌入层 (词库大小,嵌入向量的维度,输入大小)GlobalAveragePooling1D(),              # 平均池化层 返回平均值Dense(32,activation="relu"),Dropout(0.2),Dense(1)
])
model1.summary()model1pile(optimizer="adam",loss="mse",metrics=['mean_absolute_error','accuracy'])history = model1.fit(X_train_padd , y_train, batch_size=512, epochs=20, validation_data=(X_test_padd,y_test),verbose=1)"""
Model: "sequential_2"
_________________________________________________________________Layer (type)                Output Shape              Param #   
=================================================================embedding_3 (Embedding)     (None, 250, 64)           32000000  global_average_pooling1d_3  (None, 64)                0         (GlobalAveragePooling1D)                                       dense_4 (Dense)             (None, 32)                2080      dropout_2 (Dropout)         (None, 32)                0         dense_5 (Dense)             (None, 1)                 33        =================================================================
Total params: 32002113 (122.08 MB)
Trainable params: 32002113 (122.08 MB)
Non-trainable params: 0 (0.00 Byte)
_________________________________________________________________
""""""
...
Epoch 100/100
74/74 - 1s - loss: 1.3636 - mean_absolute_error: 0.7654 - accuracy: 0.0255 - val_loss: 8.7319 - val_mean_absolute_error: 2.1841 - val_accuracy: 0.0136 - 1s/epoch - 20ms/step
"""

缺陷与不足

        验证集的损失值太大,准确度太低,这也是我迷惑的点,可能数据处理时没有处理完全,也有可能是模型构建方式不全面,麻烦大佬可以在评论区指点下!!!

原竞赛网址 欢迎各位来学习和挑战

罪犯减刑时长预测 Competitions - DataFountainDataFountain(简称DF平台)是国内领先的数据科学竞赛创新平台之一,提供数据竞赛/AI算法大赛、数据集、项目实训、在线编程等服务。

本文发布于:2024-02-03 07:04:12,感谢您对本站的认可!

本文链接:https://www.4u4v.net/it/170691505249416.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:罪犯   狱中   年份   NLP   DF
留言与评论(共有 0 条评论)
   
验证码:

Copyright ©2019-2022 Comsenz Inc.Powered by ©

网站地图1 网站地图2 网站地图3 网站地图4 网站地图5 网站地图6 网站地图7 网站地图8 网站地图9 网站地图10 网站地图11 网站地图12 网站地图13 网站地图14 网站地图15 网站地图16 网站地图17 网站地图18 网站地图19 网站地图20 网站地图21 网站地图22/a> 网站地图23