ppN是什么?_百度为啥啥都知道知道


· 专注于分享科学教育知识

1、ppn:在银行间债券市场以非公开定向发行方式发行的债务融资工具称为非公开定向债务融资工具( PPN,private placement note )。

2、私募债:是指以中小微型企业在中国境内以非公开方式发行和转让,预定在一定期限还本付息的一种公司债券,它非公开发行,所以属于私募债的发行,不设行政许可。

(1)简化的信息披露要求,发行定向融资工具只需向定向投资人披露信息,无需履行公开披露信息义务;披露方式可协商约定。这将减轻发行人,尤其非上市公司发行人的信息披露负担;

同时非公开定向发行有利于引入风险偏好型投资者,构建多元化的投资者群体,化解中小企业、战略性新兴产业发行人等融资主体在传统公开发行方式的融资困局。

(2)发行规模可突破“40%”限制:《证券法》中仅对公开发行公司债券有“累计债券余额不超过公司净资产百分之四十”的限定,对非公开发行债券并无明确规定,因此定向工具规模可突破净资产40%的限制;

(3)非公开发行方案灵活:由于采取非公开方式发行,利率、规模、资金用途等条款可由发行人与投资者通过一对一的谈判协商确定。

(2)对发债机构资格认定标准较低。

(3)可不需要提供担保和信用评级。

(4)信息披露程度要求低。

(5)有利于建立与业内机构的战略合作。

1、ppn:向特定数量的投资人发行的债务融资工具,并限定在特定投资人范围内流通转让。

2、私募债:定向发行债券的流动性低,只能以协议转让的方式流通,只能在合格投资者之间进行。


· 百度认证:深圳市金斧子基金销售有限公司官方帐号

金斧子是中国证监会核准的独立基金销售机构,多元化股东背景,基金牌照护航,金斧子平台中产以及高净值注册用户已突破80万,累计为客户配置的公募基金、阳光私募、私募股权等基金规模已超350亿。

1、ppn:在银行间债券市场以非公开定向发行方式发行的债务融资工具称为非公开定向债务融资工具( PPN,private placement note )。

2、私募债:是指以中小微型企业在中国境内以非公开方式发行和转让,预定在一定期限还本付息的一种公司债券,它非公开发行,所以属于私募债的发行,不设行政许可。

(1)简化的信息披露要求,发行定向融资工具只需向定向投资人披露信息,无需履行公开披露信息义务,披露方式可协商约定。

(2)发行规模可突破“40%”限制:《证券法》中仅对公开发行公司债券有“累计债券余额不超过公司净资产百分之四十”的限定,对非公开发行债券并无明确规定,因此定向工具规模可突破净资产40%的限制。

(3)非公开发行方案灵活:由于采取非公开方式发行,利率、规模、资金用途等条款可由发行人与投资者通过一对一的谈判协商确定。

(2)对发债机构资格认定标准较低。

(3)可不需要提供担保和信用评级。

(4)信息披露程度要求低。

投资理财就到金斧子,金斧子致力从家庭目标与规划出发,为客户提供一站式的家庭财务分析、投资策略、以及跨周期、全品类、多元化的基金配置方案,服务涵盖移动端、PC端、微信端便捷的产品搜索、基金申赎、净值查询、财富记账、配置规划、投资咨询等,最终帮助家庭实现财富的保值、增值和传承。

迄今为止,金斧子平台中产以及高净值注册用户已突破80万,累计为客户配置的公募基金、阳光私募、私募股权等基金规模已超350亿,超过10万个家庭得到了专业、独立、实时、高效的一站式资产配置建议与基金交易服务。


· 查排名,选私募,就上私募排排网

ppn即非公开定向债务融资工具(private placement note),是指具有法人资格的非金融企业,向银行间市场特定机构投资人发行债务融资工具,并在特定机构投资人范围内流通转让的行为。私募债指我国公司制法人在境内市场以非公开方式发行,对发行人没有净资产和盈利能力门槛要求,完全市场化的公司债券

监管机构:ppn是中国银行间市场交易商协会监管,私募债为证监会监管
发行主体:前者是具有法人资格的非金融企业发行,后者是所有公司制法人但不包括地方政府融资平台公司
发行对象:前者是由协会界定的银行间债券市场合格投资者认购;后者是一般以少数关系密切的单位和个人为发行对象,不对所有的投资者公开出售。
交易场所:前者是在全国银行间债券市场;后者是在证券交易所/全国中小企业股份转让系统/机构间私募产品报价与服务系统/证券公司柜台转让。
融资期限:前者未作特殊限定,可以由主承销商/发行人/投资人协商决定;后者是深交所1年以上,上交所3年以下。

想要了解更多关于私募的相关信息,推荐下载私募排排网APP。私募排排网成立于2004年 ,是一家以私募基金数据为核心,立足于为合格投资者和私募基金管理人两端提供一站式金融理财服务平台。组合大师是私募排排网基于私募大数据研发的基金投研综合服务平台,包含排排网独立研发的融智私募基金指数体系、私募基金评测体系、私募基金组合管理系统、融智私募投顾池以及私募大数据体系等,值得信赖。


· 说的都是干货,快来关注

ppn和私募债的区别:

  • 发行主体上有差别,交易所市场私募债的发行主体向中 小企业倾斜,而银行间市场私募债发行主体规模较大。

  • 券商在寻找项目的能力上不及银行,银行的贷款客户天然就是发债潜在客户,很多时候券商还要和银行合作找项目。

  • ppn即银行间债券市场ppn(银行间私募债PPN),即“银行间债券市场非金融企业债务融资工具”,指指具有法人资格的非金融企业,向银行间市场特定机构投资人发行债务融资工具,并在特定机构投资人范围内流通转让的行为。

  • 市场上说的私募债,通常指的是中小企业私募债,即交易所私募债。

  • 广义上来说,私募债是包括了银行间ppn的,但通常我们说私募债就是指中小企业私募债。

ppn即银行间债券市场ppn(银行间私募债PPN),即“银行间债券市场非金融企业债务融资工具”,指指具有法人资格的非金融企业,向银行间市场特定机构投资人发行债务融资工具,并在特定机构投资人范围内流通转让的行为。
市场上说的私募债,通常指的是中小企业私募债,即交易所私募债。
银行间私募债与交易所私募债互为配合。
对比交易所中小企业私募债更具优势:一方面发行主体上有差别,交易所市场私募债的发行主体向中 小企业倾斜,而银行间市场私募债发行主体规模较大。
另外,券商在寻找项目的能力上不及银行,银行的贷款客户天然就是发债潜在客户,很多时候券商还要和银行合作找项目。如果银行间私募债市场 门槛降低,那么银行可以直接帮助中型企业发私募债,无需把这块蛋糕分给券商。
广义上来说,私募债是包括了银行间ppn的,但通常我们说私募债就是指中小企业私募债。

下载百度知道APP,抢鲜体验

使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。

你对这个回答的评价是?

下载百度知道APP,抢鲜体验

使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。

作者:阿Sam 【翻译整理】
  • 使用逻辑回归构建一个概率类的分类模型
    • 使用sklearn训练一个逻辑回归模型
    • 利用核技巧Kernel-SVM在高维空间中寻找分隔超平面
    • 最大化信息增益-获得最大的提升度
    • 通过随机森林将“弱者”与“强者”模型集成
  • K近邻分类模型(一个懒惰的算法)

PS:代码已单独保存:可在公众号后台输入“sklearn”进行获取ipynb文件

关于Scikit的介绍,大家应该看过很多了,简答来说它就是用Python开发的机器学习库,其中包含大量机器学习算法、数据集,是数据挖掘方便的工具,更多的介绍这里就不说了,大家有兴趣可以去百度一下呗。

再次训练模型并可视化:

使用逻辑回归构建一个概率类的分类模型

关于激活函数,首先要搞清楚的问题是,激活函数是什么,有什么用?不用激活函数可不可以?答案是不可以。
激活函数的主要作用是提供网络的非线性建模能力。如果没有激活函数,那么该网络仅能够表达线性映射,此时即便有再多的隐藏层,其整个网络跟单层神经网络也是等价的。因此也可以认为,只有加入了激活函数之后,深度神经网络才具备了分层的非线性映射学习能力。

  • 可微性:当优化方法是基于梯度的时候,这个性质是必须的。
  • 单调性:当激活函数是单调的时候,单层网络能够保证是凸函数。
  • 输出值的范围:当激活函数输出值是 有限 的时候,基于梯度的优化方法会更加稳定,因为特征的表示受有限权值的影响更显著;当激活函数的输出是 无限 的时候,模型的训练会更加高效,不过在这种情况小,一般需要更小的learning rate


Sigmoid 是使用范围最广的一类激活函数,具有指数函数形状,它在物理意义上最为接近生物神经元。此外,(0, 1) 的输出还可以被表示作概率,或用于输入的归一化,代表性的如Sigmoid交叉熵损失函数。(一般会用于二分类问题的激活函数,深度学习大概还有3种激活函数,大家可以去百度一下。)

逻辑回归的对数似然损失函数cost function:

图:详见参考文献[2]

也可以直观地从图里看到损失函数的原理:

使用sklearn训练一个逻辑回归模型

关于逻辑回归算法,调用的方式和上面的ppn算法是类似,如下:

关于过拟合的概念这里就不做过多的解释了,大概就是如下图一样(从左至右分别是欠拟合-正常-过拟合)。

正则化是用来降低overfitting(过拟合)的,对于数据集梳理有限的情况下,防止过拟合的一种方式就是降低模型的复杂度,怎么降低?一种方式就是在cost函数中加入正则化项,正则化项可以理解为复杂度,cost越小越好,但cost加上正则项之后,为了使cost小,就不能让正则项变大,也就是不能让模型更复杂,这样就降低了模型复杂度,也就降低了过拟合。这就是正则化。正则化也有很多种,常见为两种L2和L1。
(机器学学习中的正则化相关的内容可以参见李航的书:《统计学习方法》)

简单来说,越是复杂的模型,对于数据的表达能力就越强,就更加容易出现过度拟合的情况,所以正则化就是通过来降低模型复杂度从而达到模型泛化能力的提升,也就是处理过拟合。

关于线性和非线性问题的区别,大家应该也有一定的概念,如下图:

很明显,我们是无法通过线性的方法来达到分类的目的,这样子的问题我们统称为“非线性问题”(个人直观定义,不是很专业严谨)

什么是核方法?核方法就是在原来特征基础上创造出非线性的组合,然后利用映射函数将现有特征维度映射到更高维的特征空间,并且这个高维度特征空间能够使得原来线性不可分数据变成了线性可分的。

同样是上面的数据,其实我们是可以做一定的处理来达到线性分类的目的的,而这个处理就是核方法了。

从上图可以看出,高维空间中的线性决策界实际上是低维空间的非线性决策界,这个非线性决策界是线性分类器找不到的,但是通过核方法就找到了。

而我们通过使用SVM(支持向量机)来达到上面的原理,支持向量机是基于线性划分的,它的原理是将低维空间中的点映射到高维空间中,使它们成为线性可分的。再使用线性划分的原理来判断分类边界。在高维空间中,它是一种线性划分,而在原有的数据空间中,它是一种非线性划分。

图:核函数的家族【更多内容见文献2】

利用核技巧kernel SVM在高维空间中寻找分隔超平面

上面讲了那么原理,还是实践出真理,我们自己来通过核SVM来训练一个模型,我们用的数据还是上面的“非线性”数据集。

从下面的分类结果来看,Kernel SVM对于非线性的数据集分类的效果还是非常优秀的,其中我们用到的核函数是高斯核函数。

我们试着把Kernel SVM应用在iris数据集看看效果。可以看出,分类的效果也是很好的,这里我们的gamma值(0.2)相比之前(0.1)是变大了,所以分类边界会显得更加“柔软”。

我们可以试着继续加大gamma值,可以看到其实决策边界是过度拟合,模型在训练集上的表现效果很好,但是泛化能力将会是一塌糊涂,所以,我们经常会通过控制gamma值来防止过拟合。

关于决策树模型的定义解释这边就不说明了,该算法的框架表述还是比较清晰的,从根节点开始不断得分治,递归,生长,直至得到最后的结果。根节点代表整个训练样本集,通过在每个节点对某个属性的测试验证,算法递归得将数据集分成更小的数据集.某一节点对应的子树对应着原数据集中满足某一属性测试的部分数据集.这个递归过程一直进行下去,直到某一节点对应的子树对应的数据集都属于同一个类为止。

基于训练集中的特征,决策树模型提出了一系列问题来推测样本的类别。虽然上图中做出的每个决策都是根据离散变量,但也可以用于连续型变量,比如,对于Iris中sepal width这一取值为实数的特征,我们可以问“sepal width是否大于2.8cm?”

训练决策树模型时,我们从根节点出发,使用信息增益(information gain, IG)最大的特征对数据分割。然后迭代此过程。显然,决策树的生成是一个递归过程,在决策树基本算法中,有三种情形会导致递归返回:

(1)当前节点包含的样本全属于同一类别,无需划分;
(2)当前属性集为空,或是所有样本在所有属性上取值相同,无法划分;
(3)当前节点包含的样本集合为空,不能划分。

每一个节点的样本都属于同一个类,同时这也可能导致树的深度很大,节点很多,很容易引起过拟合。因此,剪枝操作是必不可少的,来控制树深度。

最大化信息增益-获得最大的提升度

关于对信息、熵、信息增益是信息论里的概念,是对数据处理的量化,这几个概念主要是在决策树里用到的概念,因为在利用特征来分类的时候会对特征选取顺序的选择,这几个概念比较抽象。

信息增益( ID3算法 )定义:

以某特征划分数据集前后的熵的差值。熵表示样本集合的不确定性,熵越大,样本的不确定性就越大。因此可以使用划分前后集合熵的差值来衡量使用当前特征对于样本集合D划分效果的好坏。

  • 划分前样本集合D的熵是一定的,entroy(前)
  • 使用某个特征A划分数据集D,计算划分后的数据子集的熵,entroy(后)
  • 原理:计算使用所有特征划分数据集D,得到多个特征划分数据集D的信息增益,从这些信息增益中选择最大的,因而当前结点的划分特征便是使信息增益最大的划分所使用的特征。
  • 详细解释:对于待划分的数据集D,其 entroy(前)是一定的,但是划分之后的熵 entroy(后)是不定的,entroy(后)越小说明使用此特征划分得到的子集的不确定性越小(也就是纯度越高),因此 entroy(前) - entroy(后)差异越大,说明使用当前特征划分数据集D的话,其纯度上升的更快。而我们在构建最优的决策树的时候总希望能更快速到达纯度更高的集合,这一点可以参考优化算法中的梯度下降算法,每一步沿着负梯度方法最小化损失函数的原因就是负梯度方向是函数值减小最快的方向。同理:在决策树构建的过程中我们总是希望集合往最快到达纯度更高的子集合方向发展,因此我们总是选择使得信息增益最大的特征来划分当前数据集D。
  • 缺点:信息增益偏向取值较多的特征。
  • 原因:当特征的取值较多时,根据此特征划分更容易得到纯度更高的子集,因此划分之后的熵更低,由于划分前的熵是一定的,因此信息增益更大,因此信息增益比较偏向取值较多的特征。

此外,还有信息增益比( C4.5算法 ),基尼指数等算法,大家可以去阅读一下参考文献3的文章。

上面讲了这么多原理,还是要放一些code来给大家学习一下。决策树通过将特征空间分割为矩形,所以其决策界很复杂。但是要知道过大的树深度会导致过拟合,所以决策界并不是越复杂越好。我们调用sklearn,使用熵作为度量,训练一颗最大深度为3的决策树,代码如下:

可以看出,这个决策树将数据划分成了三类,不同的颜色代表着一类,此外,sklearn的一大优点是可以将训练好的决策树模型输出,保存在.dot文件。

通过随机森林将“弱者”与“强者”模型集成

随机森林一直是广受欢迎的模型,优点很多:优秀的分类表现、扩展性和使用简单。随机森林的思想也不复杂,一个随机森林模型就是多颗决策树的集成。集成学习(ensemble learning)的观点是将多个弱分类器结合来构建一个强分类器,它的泛化误差小且不易过拟合。

随机森林算法大致分为4个步骤:

  • 步骤1: 通过自助法(bootstrap)构建大小为n的一个训练集,即重复抽样选择n个训练样例;
  • 步骤2: 对于刚才新得到的训练集,构建一棵决策树。在每个节点执行以下操作:
    • 通过不重复抽样选择d个特征
    • 利用上面的d个特征,选择某种度量分割节点
  • 步骤3: 重复步骤1和2,k次;
  • 步骤4: 对于每一个测试样例,对k颗决策树的预测结果进行投票。票数最多的结果就是随机森林的预测结果。

直接调用sklearn来看一下随机森林吧。

K近邻分类模型(一个懒惰的算法)

本系列最后一个监督学习算法是k紧邻算法(k-nearest neighbor classifier, KNN), 这个算法很有意思,因为他背后的思想和本章其他算法完全不同。

KNN是懒惰学习的一个典型示例。之所以称为“懒惰”并不是由于此类算法看起来很简单,而是在训练模型过程中这类算法并不去学习一个判别式函数(损失函数)而是要记住整个训练集。

这里引入一个概念:参数模型VS变参模型

机器学习算法可以被分为两大类:参数模型和变参模型

对于参数模型,在训练过程中我们要学习一个函数,重点是估计函数的参数,然后对于新数据集,我们直接用学习到的函数对齐分类。典型的参数模型包括感知机、逻辑斯蒂回归和线性SVM。

对于变参模型,其参数个数不是固定的,它的参数个数随着训练集增大而增多!很多书中变参(nonparametric)被翻译为无参模型,一定要记住,不是没有参数,而是参数个数是变量!变参模型的两个典型示例是决策树/随机森林和核SVM。

KNN属于变参模型的一个子类:基于实例的学习(instance-based learning)。基于实例的学习的模型在训练过程中要做的是记住整个训练集,而懒惰学习是基于实例的学习的特例,在整个学习过程中不涉及损失函数的概念。
KNN算法本身非常简单,步骤如下:

  1. 确定k大小和距离度量。
  2. 对于测试集中的一个样本,找到训练集中和它最近的k个样本。
  3. 将这k个样本的投票结果作为测试样本的类别。

对每一个测试样本,基于事先选择的距离度量,KNN算法在训练集中找到距离最近(最相似)的k个样本,然后将k个样本的类别的投票结果作为测试样本的类别。

像KNN这种基于内存的方法一大优点是:一旦训练集增加了新数据,模型能立刻改变。另一方面,缺点是分类时的最坏计算复杂度随着训练集增大而线性增加,除非特征维度非常低并且算法用诸如KD-树等数据结构实现。此外,我们要一直保存着训练集,不像参数模型训练好模型后,可以丢弃训练集。因此,存储空间也成为了KNN处理大数据的一个瓶颈。

下面我们调用sklearn训练一个KNN模型:


Python爱好者社区历史文章大合集

我要回帖

更多关于 ppn期限 的文章

 

随机推荐