全部版块 我的主页
论坛 经济学人 二区 外文文献专区
2022-6-14 05:58:38
将数据聚合到规范(1)中的天数(2),其中公共线性时间趋势B(未显示)的系数在5%的水平上变得显著。表10:Metoo结果与Togetherness的比较8结论本文将Metoo事件的确切日期解释为外源性的,并使用它来评估性别规范是否能够有效地改变机器学习算法的最新发展带来的新数据源。在论文中,性别规范是人们在日常生活中所经历的性别规范。前一年存在。大多数推特都是关于男性的,但在我之后,他们开始更多地谈论女性。推特森平均数将男性和女性描述为在更大程度上追随女性的性别角色。瑞典推特样本并不能代表瑞典的平均性别规范环境,其结果表明规范有可能迅速改变。所发现的相当强烈的影响令人惊讶,进一步的研究应该调查哪些亚群对变化的贡献大于他们推特的次数。对推文中涉及哪些主题进行分析,以进一步了解发生变化的用户类型。参考Sabadie,A.、Athey,S.、Imbens,G.W.和Wooldridge,J.(2017)。什么时候应该调整聚类的标准错误?NBER工作文件24003,国家经济研究局。Akerlof,G.A.和Kranton,R.E.(2000年)。经济学与身份认同。《经济学季刊》,115(3):715–753。Alesina,A.、Giuliano,P.和Nunn,N.(2013年)。《性别角色的起源:女性与犁》。《经济学季刊》,128(2):469-530。预印本-2019年3月5日多义词的应用。ArXiv电子打印。估计?《经济学季刊》,119(1):249–275。《经济学季刊》,130(2):571–614。Bisin,A。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-14 05:58:41
和Verdier,T.(2001年)。文化传播经济学和偏好动态。《经济理论杂志》,97(2):298–319。是家庭主妇吗?借记词嵌入。ArXiv电子打印。Bowles,H.R.,Babcock,L.,和Lai,L.(2007)。发起谈判倾向中性别差异的社会诱因:有时问问题确实有害。《组织行为与人类决策过程》,103(1):84–103。Buda,M.、Maki,A.和Mazurowski,M.A.(2018)。卷积神经网络类不平衡问题的系统研究。神经网络,106:249–259。商业与经济统计,29(2):238–249。Fernández,R.、Fogli,A.和Olivetti,C.(2004年)。母亲和儿子:偏好形成和女性劳动力动力。《经济学季刊》,119(4):1249–1299。Fortin,N.M.(2015)。性别角色态度与女性劳动力市场参与:选择退出、艾滋病和持续的家务化倾向。《经济与统计年鉴》(117/118):379-401。已访问预打印。Fryer,R.G.和Levitt,S.D.(2010)。数学性别差异的实证分析。《美国经济杂志》:应用经济学,2(2):210–40。《经济评论》,96(2):1-21。谷歌的Ngram浏览器。https://books.google.com/ngrams.访问日期:2018-07-30。Guiso,L.、Monte,F.、Sapienza,P.和Zingales,L.(2008)。文化、性别和数学。《科学》,320(5880):1164-1165。Hastie,T.、Tibshirani,R.和Friedman,J.(2009)。统计学习的要素:数据挖掘、推理和预测。纽约州纽约市:斯普林格。霍尼克,K.(1991)。多层前馈网络的逼近能力。神经网络,4(2):251–257。ISS(2016)。Svenskarna och sociala medier 2016:En del av unders"okningen Svenskarna och internet 2016。来自ISS、Internetstiftelsen i Sverige的报告。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-14 05:58:44
(ISS是一个运行.se域注册表的非专业组织)。现场试验。《管理科学》,61(9):2016-2024年。马泽,J.,胡夫迈耶,J.,弗劳德,P.A.,斯图尔马赫,A.F.,比尔克,L.,和赫特尔,G.(2015)。谈判结果中性别差异及其调节因素的元分析。《心理通报》,141(1):85。ArXiv电子打印。60(1):3–22.Mullainathan,S.和Spiess,J.(2017)。机器学习:一种应用计量经济学方法。《经济展望杂志》,31(2):87–106。Nollenberger,N.,Rodríguez Planas,N.,和Sevilla,A.(2016)。数学性别差异:文化的作用。《美国经济评论》,106(5):257–61。A预印本-2019年3月5日North,D.(1990)。制度、制度变迁与经济绩效。剑桥大学出版社。《经济展望》,24(2):95–108。Poria,S.、Cambria,E.、Hazarika,D.和Vij,P.(2017)。使用深度卷积神经网络对讽刺推文进行深入研究。ArXiv电子打印。分类器。第20届机器学习国际会议记录(icml-03),第616-623页。Shen,L.,Lin,Z.,和Huang,Q.(2015)。学习深度卷积神经网络进行场景识别。ArXiv电子打印。Spencer,S.J.、Steele,C.M.和Quinn,D.M.(1999年)。刻板印象威胁与女性数学成绩。《实验社会心理学杂志》,35(1):4-28。http://www.statistikdatabasen.scb.se/sq/549962016.Statistics瑞典(2016b)。http://www.statistikdatabasen.scb.se/sq/54997.2016年男性名字数据。Steinert Threlkeld,Z.C.(2018)。推特作为数据。社会科学定量和计算方法中的元素。剑桥大学出版社。文学,38(3):595–613.108:175–179。处理。ArXiv电子打印。A预印本-2019年3月5日附录A。模型规格和选择1以无监督方式概述性别语言。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-14 05:58:47
这些模型学习预测他和她在瑞典推特上的空白点(最初包含这些单词)应该填充哪些单词。性别语言的一个维度用于推断其余维度。本附录包括规格和型号选择。所选的最终模型根据主要文章中的测试数据进行评估,此外,作为评估#Metoo“控制”模型的测量工具,用于生成用于评估#Metoo运动的比较系列。A2 DataI从2016年5月1日至2017年4月30日(在主要文章中称为第一年)从Twitter的API下载了5800万条未转发的瑞典推文。单词嵌入在完整的数据集上进行了预训练,但对于模型训练,有两条主要的推文出现了单词I或we。原始调整集计数类不平衡计数10-25个单词(百万)(分数)(百万)(百万)(百万)他/她1.5 0.255 1.5 1.1I/we 8.3 0.240 1.5 1.1表A1:集合和样本大小表A1(原始,计数)表示我/我们推文的总计数比他/她推文的总数大830万)。此外,表A1(原始,阶级不平衡)将阶级不平衡表示为她或我们这一不常见阶级出现的百分比。25.5%的她在“他/她”组中发推,24%的我们在“我/我们”组中发推。这两组数据同样不平衡,因此,在这方面,无需对I/we推文进行调整即可生成良好的“控制”模型。更容易找到。上限将原始样本减少了约20%。另一种方法是将64-16-20随机分成一组进行培训、验证和测试。方言he(han)可以代替he(honom),例如。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-14 05:58:50
我给他的“语法正确”的句子在他班大约占2%。对于本附录中考虑的深层网络类型而言,噪声水平不是一个问题。这两组数据仍处于类似的不平衡状态,分别为25.1%和23.9%。1000条他/她推文的样本。他推特中的替代率为1.1%至3.9%,估计为2.2%。(根据精确的二项检验,其中无效假设是比例等于零)。没有语言历史上的理由认为女性代词she(hon)和she(henne)会有相同的替代,也没有发现替代。预印本-2019A3年3月5日预处理,通常不被视为文字。Word Embeddings是在Wikipedia文本上专门训练的,而Wikipedia文本很可能不包含与Twitter相同类型的语言,hencehave我也训练了自己的语言。单词嵌入使用Mikolov等人(2013)的Skip Gram算法进行训练,因为它是一种标准的训练方法。他们通过Gensim接受了5800万条推特数据的培训。瑞典语(fullmane)的实现细节为“fullmoon”,这意味着该模型将有更多的单词向量,但与标准的英语案例相比,对solve的共同引用更少。超参数值Word vector Dimension 300窗口长度10负样本大小5分钟计数10个时代的数量5个特征计数内容5800万标记34亿斯托克斯>窗口长度24亿独立标记>窗口长度575000表A2:单词嵌入实现细节性别化词的屏蔽可以说,该模型应该捕获更细微的性别颜色语言性别颜色的单词被蒙面。在蒙面数据中,活动词是通过折叠原始词创建的。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-14 05:58:53
例如,高预测词首先来自优化的朴素贝叶斯模型,然后来自在已屏蔽数据上训练的LSTM神经网络模型。我认为掩盖以下类型的词是合适的:1。使用训练词向量定义的相似词进行扩展。由于这个原因,一些预测性很强的单词或邻居被屏蔽了。2、名人的姓氏。(2016a,b),除了在瑞典语(kalla,du)或英语(star,honey)中也是另一个单词的名称。表A3显示了掩码列表的计数和在培训中找到的有效单词。掩蔽时,训练集的字数减少了3%。有关用于屏蔽的单词的完整列表,请参阅在线附录表“用于屏蔽的单词”。预印本-2019年3月5日描述源元组计数单词计数在培训中发现的单词计数高-预测者拥有421 932 7532个著名姓氏拥有2 815 8153个名字统计瑞典2 22751 5531注:元组计数不等于掩码列表上的单词计数。例如,显示的单词与列表中理论上可能要屏蔽的单词不同。表A3:屏蔽词计数A4模型规格模型。朴素贝叶斯模型作为基线,不考虑语序,例如没有时间维度,尽管有不同的偏好。X={X,…,xt}xtX∈ Rt×VTV可撤销。根据模型类型的不同,克服了由一般问题公式组成的维数灾难。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-14 05:58:56
基于计数的模型(如朴素贝叶斯)减少了一个热编码单词的表示toX∈ Rva将一个热编码单词表示简化为d维向量,努力表示单词relationshipxword vecort=BReducexone-热还原剂∈ Rt×ddBReduceX∈ 公共占位符的Rt×VRE表示通过对原始占位符求和并重新规范化来初始化。y-Piyilog(^yi)+(1- yi)日志(1- ^yi)^y=P(C | X)=σ(a)=1/1+e(-a) a=逻辑模型背后的对数[P(X | C)P(C)/P(X | C)P(C)]对数似然函数。(1) 训练NBA基线神经网络朴素贝叶斯模型,这相当于以每个单词的计数作为自变量估计线性Logistic回归:a=log[P(C)/P(C)]+VXv=1log[p1,v/p2,v]xv=C+VXv=1bvxv(1),其中pc,vre表示单词分类的概率,xvre表示单词在句子中的计数。逻辑回归规范中的对数优势比log[P(C)/P(C)],常数)。(2) BoW-WVregression,其中每个单词向量维度是一个自变量:a=c+TXt=1DXd=1bd,txd,t=f(X W+c)(2),其中xt,dre在句子中表示单词向量的第个维度。右侧表达遵循WF。有关近期结果的概述,请参见Young et al.(2017)。预印本-2019年3月5日F(z)=zvectors接受英语谷歌新闻培训。这表明线性规格可能是足够的,而当前的模型。(3) LSTM与柔性设计相比,本文实现的LSTM网络具有一层和相当裸露的结构。长-短期记忆(LSTM)网络是递归神经网络(RNN)的一个子类。对于npl任务,areX={x,…,xt}x∈ Rt×D通过“自动去趋势化”时间序列来延长时间序列。各种门用于将STM NodeXT的输入“过滤”到nodeht的输出。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-14 05:58:59
更具体地说,使用的是遗忘网关、输入网关和输出网关:i=σ(uixt+wiht-1+bi)f=σ(ufxt+wfht-1+bf)o=σ(uoxt+woht-1+bo)(3)UWB重量(常数)。逻辑函数σ(z)将闸门映射到(0,1)。“过滤”规格如下:ht=tanh(ct)oct=ct-1f+▄cti▄ct=tanh(ucxt+wcht-1+bc)(4)UCWCBCHTCTCT-1fc由输入网关过滤。在下一步中,候选值▄表示节点在前一时间步的输入XT和输出的组合-Thetahn函数映射为(-1,1),因此允许输出或更新不同时间步之间的序列。完整的LSTM网络由许多LSTM节点和规格组成,如下所示:^y=σ(a)=σ(Whf(ht=T)+ch)(5)ff(z)=max(z,0)aht=tt在训练过程中,前面隐藏的LSTM层中学习的特征ht=T以概率p随机退出,训练完成时,参数以相同的概率重新缩放。LSTM层中的节点数和丢失率都是可以调整的超参数示例。(4) CNN{4,5}内核。输入层是零填充的,卷积很窄/有效。“最大池”是在窗口大小为2的情况下执行的,与传统的步幅相同。最后一个完全连接的层由100个神经元组成。CNN设计预印本-2019年3月5日x={x,…,xt}={I,will,…,!}每个集合中的k={k,…,k}x3:5={x3,1,x3,2,x4,1,…,x5,2}cc^c=最大{c,c}}通过具有2个内核和特征映射来说明。具有多个卷积层的可能性如图1所示,由三个水平点(…)表示。该图还表明,CNN中最后一个完全连接的层是通过连接最后一个最大池层获得的。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-14 05:59:02
(辍学情况未说明。)NPL CNN不是对图像进行操作,而是对由matrixX表示的输入句子进行操作∈ Rt×dwith1-d卷积。每个内核应用于一个h字窗口,以生成一个新的特征。在CNN模型中,卷积层通常分两步建立:卷积和最大池。模型结构如图A1所示。在卷积步骤中,一个kernelk∈ Rhdis应用于windowxt:t+h∈ 右驾,axtxt+hci=f(kTxt:t+h-1+b)ff(z)=最大(z,0)mapc={c,…,ct-h+1}。内核中的参数在窗口间共享。在最大池步骤中,^cj=max{cj:j+h-1} zmany卷积层在彼此之后。CNN中的最后一层是一个完全连接的层,具有来自最后一个最大池层的级联输入,a=W z+c(使用本文中使用的设置)。Dropout再次应用于最后一层,但现在最后一个max pooling层中的功能将随机退出。A5超参数调整被认为是一种改进。调整的主要超参数集是是否应该重新训练字向量以及处理类不平衡的方法。为手头的任务初始化单词嵌入,再培训可以通过调整单词向量来降低绩效。研究的第一种方法包括加权损失函数,以更多地关注未充分代表的单词,加权因子接近三。该方法是标准的,但由于使用了二元交叉熵损失,误差将趋于一致,加权可能不太有效。研究的第二种方法是使每个小批次达到平衡。Buda et al.(2018)提到了该策略,Shen et al.(2015)使用了该策略。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-14 05:59:05
每个小批次的平衡是通过随机重画样本来完成的,直到有足够数量的代表性不足的类别可用,然后随机切割代表性过高的类别的样本。每个小批量的近似限值是基于Young et al.(2017)所认为的深度学习NLP文献综述的显著改进。为了澄清,模型中只包含训练集中找到的单词。预印本——2019年3月5日,如果数据平衡,数据的经验分布情况。该方法可以看作是过采样或欠采样更标准方法的随机梯度下降版本。指导泛化性能的超参数。更具体地说,{125、250、500}个节点和{0、0.25、0.5}中的{0、0.25、0.5}。过滤器的数量没有得到优化,因为每层100个过滤器似乎是相当标准的。此外,并非所有的超参数都针对屏蔽的他/她模型进行了调整,因为这将耗费大量计算资源。只有经过我训练的规范化300维单词向量被尝试过。除朴素贝叶斯模型外,所有推特都是预处理模型类型。由于样本量很大,所有训练都是在十分之一(1/10:th)的时间尺度上进行的。网络以100个样本的最小批量进行训练,最多5个时代。训练StopsTrive遵循自然语言处理的标准设置-神经网络类型。A6验证结果(1)(2)(3)(4)型号NB弓-WV LSTM CNNROC AUC 0.7315 0.7180 0.7640 0.7588精度0.7541 0.7567 0.7733 0.7721超参数:训练w。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-14 05:59:08
类不平衡平衡批量平衡批量加权训练词向量无NoNr节点125 100辍学分数0.25 0.5注:在不平衡验证集中评估每个模型类型的屏蔽He/she数据的超参数优化结果。表A4:验证总结结果表A4列出了每种模型类型的超参数优化结果的总结。神经网络框架中提出的NB模型表现出较差的性能(未显示)。NB模型的准确度为0.754,准确地击败了简单的分类规则,即预测任何样本到he类,其准确度为0.749。专栏介绍了表现最好的模型,即LSTM神经网络模型,ROC AUC得分为0.7640.758,准确度为0.772。因此,表A4的内省表明,当NLSTM模型ROC AUC得分比NB模型高0.03分,准确度比NB模型高0.02分时,主要的性能提高。Moreare分别为0.7372和0.7629。表A5显示了迭代的主要超参数集的结果,如果应该重新训练单词向量,并使用它来处理类不平衡,则重新训练单词向量会影响性能。一个可能的原因是,theA5还表明,无论是否对词向量进行再培训,都可以获得更高的性能,因为LSTM模型一得出的结论是,加权可以提高性能。对于BoW WV模型是离散的,为什么LSTM模型类型的方法之间的差异更大,可能是LSTM节点“detrend”输入数据,使其对不平衡数据更敏感。预印本-2019年3月5日LSTMROC AUC 0.7410 0.7540 0.6486 0.7061精度0.7672 0.7698 0.7664 0.7651词向量训练是否训练w。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-14 05:59:11
类不平衡平衡分批平衡分批加权加权CNROC AUC 0.7331 0.7566 0.7325 0.7588精度0.7683 0.7725 0.7691 0.7721词向量的训练是否是不训练w。类不平衡平衡分批平衡分批加权加权忽略:LSTM和CNN模型类型分数为0.5的屏蔽He/She数据的超参数迭代。CNN有100个过滤器,辍学分数为0.5。表A5:主要超参数优化结果7进一步建议本项目的一些有趣发现超出了当前目的的范围。捕获gendereddeep npl文献的想法。此外,除了使用ROC AUC得分或准确度等简单指标外,深入研究模型预测的不同程度也很有趣。该项目的一个未记录的发现是,模型预测个人推特的方式非常不同,它们捕获性别语言的方式重叠不大。如果在实际应用中使用,人们会倾向于将单词和短语标记为与最终用户的想法一致的性别的模型。A8汇总允许重新训练单词向量。预印本-2019年3月5日附录B。其他信息和结果B1用于获取性别规范的调查问题列表o世界价值观调查1。当工作机会不足时,男性应该比女性有更多的工作权利。总的来说,男性是比女性更好的政治领袖。3、与大多数女性相比,大多数男性在情感上更适合从政一般社会调查(美国)1。大多数男性在情感上比大多数女性更适合从政。一个有工作的母亲可以像一个不工作的母亲一样,与她的孩子建立温暖而安全的关系。3.
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-14 05:59:15
如果他或她的母亲工作,学龄前儿童很可能会受苦。4、如果男人是家外的成功者,而女人则害怕家和家人,那么对所有参与的人来说都会好得多1972年国家纵向调查(美国)1。一个有学龄前儿童的职业母亲可以和一个不工作的女人一样成为一个好母亲。2.3. 妻子帮助丈夫比自己创业更重要。如果男人是家外的接线员,而女人害怕家和家人,通常对所有相关人员都有利。5、许多合格女性找不到好工作;拥有同样技能的男性麻烦要少得多。6.为了一个家庭。大多数女性在安家和照顾孩子时最幸福。大多数女性只是对大而重要的工作不感兴趣。学校教育女性想要不太重要的工作。应鼓励年轻男性从事通常由女性担任的工作(护理、秘书、工作等)。预印本-3月5日,2019B2表格和图表第一年第二年第二年第22016-09-05 2017-05-07 2017-09-24 2018-03-172016-09-19 2017-05-25 2017-10-03 2018-04-172016-10-15 2017-05-27 2017-10-09 2018-04-182016-10-16 2017-11-12 2018-04-2016-10-18 2017-06-12 2017-11-142016-10-20 2017-06-13 2017-11-172016-10-29 2017-06-14 2017-11-182016-11-01 2017-06-15 2017-11-192016-11-02 2017-06-16 2017-11-202016-11-032017-06-17 2017-11-212016-11-04 2017-06-18 2017-11-222016-11-05 2017-06-20 2017-11-232016-11-28 2017-06-25 2017-12-012017-02-15 2017-07-05 2017-12-092017-02-26 2017-07-23 2017-12-272017-03-11 2017-07-30 2018-01-092017-03-12 2017-07-31 2018-01-112017-03-13 2017-08-01 2018-01-282017-03-14 2017-08-14 2018-01-292017-03-18 2017-08-29 2018-01-302017-03-28 2017-09-01 2018-02-182017-04-14 2017-09-23 2018-02-20注:之所以显示UTC日期,是因为这是下载失败发生的级别。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群