多进程并发执行软件测试测试用例例子,测试结果怎么看

 上传我的文档
 上传文档
 下载
 收藏
粉丝量:146
该文档贡献者很忙,什么也没留下。
 下载此文档
PHP多进程并发控制的测试用例[原创]
下载积分:30
内容提示:PHP多进程并发控制的测试用例[原创]
文档格式:PDF|
浏览次数:253|
上传日期: 13:34:49|
文档星级:
全文阅读已结束,如果下载本文需要使用
 30 积分
下载此文档
该用户还上传了这些文档
PHP多进程并发控制的测试用例[原创]
关注微信公众号143 条评论分享收藏感谢收起GitChat 是一个知识分享平台,通过这个平台我们希望改变知识的学习方式。
Python+Pytest 单元测试框架之执行用例(第二篇)
俗话说:无规矩不成方圆,做事做人都一样。写代码也是一样,都需要遵循基本的代码规范和格式。只有了解和遵循规则,才能写出更高质量的代码,才能在错综复杂的 Bug 中快速定位出问题并找到解决方案。相信大家在 已经了解了 Pytest 测试样例规范,那么本篇就是在此规范下进行撰写、执行基础的 Demo 测试代码用例。相信经过此篇,会让大家对 Pytest 有进一步的认知。本场 Chat 主要包括以下几点:执行多个测试用例。使用 Pycharm 编辑器调用 Pytest。指定运行多个测试用例下的某个测试用例。指定运行测试目录下的某个测试用例。后续会写到如何生成可视化报告。阅读全文:
没有更多推荐了,python多进程执行自动化测试用例
时间: 18:28:53
&&&& 阅读:18
&&&& 评论:
&&&& 收藏:0
标签:&&&&&&&&&&&&&&&&&&&&&&&&&&&  multiprocessing 提供了本地和远程的并发性,有效的通过全局解释锁(Global Interceptor Lock, GIL)来使用进程(而不是线程)。由于 GIL 的存在,在 CPU 密集型的程序当中,使用多线程并不能有效地利用多核 CPU 的优势,因为一个解释器在同一时刻只会有一个线程在执行。所以,multiprocessing 模块可以充分的利用硬件的多处理器来进行工作。它支持 Unix 和Windows 系统上的运行。
from multiprocessing import Processdef f(name):  print ‘hello‘, nameif __name__ == ‘__main__‘:  p = Process(target=f, args=(‘bob‘,)) & & &#使用Process创建一个进程,target 表示调用对象,args 表示调用对象的位置参数元组  p.start() &              #开始进程  p.join() &              &#等待进程结束
运行结果:hello bob
from multiprocessing import Processimport os
def info(title):  print title  print ‘module name:‘, __name__  if hasattr(os, ‘getppid‘): &     &    #&用于判断系统是否包含 getppid方法    print ‘parent process:‘, os.getppid() & & &#得到父进程 id  print ‘process id:‘, os.getpid() & &      #得到本身进程 id
def f(name):  info(‘function f‘)  print ‘hello‘, name
if __name__ == ‘__main__‘:  info(‘main line‘)  p = Process(target=f, args=(‘bob‘,))  p.start()  p.join()
运行结果:main linemodule name: __main__process id: 8972function fmodule name: __main__
process id: 10648hello bob
我们创建了thread1和thread2两个文件夹,分别放入了两个测试用例;下面我们编写all_tests_process.py文件来通过多进程来执行测试用例。
#coding=utf-8import unittest, time, os, multiprocessingimport commandsfrom email.mime.text import MIMETextimport HTMLTestRunnerimport syssys.path.append(‘\selenium_proces‘def EEEcreatsuite1():
  casedir=[]  listaa=os.listdir(‘D:\\selenium_proces\\‘)      #读取selenium_proces 目录下的文件/文件夹  for xx in listaa:                 #找到文件/文件夹的名包含“thread”的文件/文件夹添加到 casedir 数组中
    if "thread" in xx:      casedir.append(xx)  print casedir  suite=[]  for n in casedir:    testunit=unittest.TestSuite()    discover=unittest.defaultTestLoader.discover(str(n),pattern=‘start_*.py‘,top_level_dir=r‘E:\\‘)    for test_suite in discover:      for test_case in test_suite:        testunit.addTests(test_case)        #print testunit    suite.append(testunit)  return suite,casedir
def EEEEEmultiRunCase(suite,casedir):  now = time.strftime(‘%Y-%m-%d-%H_%M_%S‘,time.localtime(time.time()))  filename = ‘D:\\selenium_python\\report\\‘+now+‘result.html‘  fp = file(filename, ‘wb‘)  proclist=[]  s=0  for i in suite:    runner = HTMLTestRunner.HTMLTestRunner(      stream=fp,      title=str(casedir[s])+u‘测试报告‘,      description=u‘用例执行情况:‘      )  proc = multiprocessing.Process(target=runner.run,args=(i,))  proclist.append(proc)  s=s+1  for proc in proclist:
    proc.start()  for proc in proclist:
    proc.join()  fp.close()
if __name__ == "__main__":  runtmp=EEEcreatsuite1()  EEEEEmultiRunCase(runtmp[0],runtmp[1])
&标签:&&&&&&&&&&&&&&&&&&&&&&&&&&&原文地址:https://www.cnblogs.com/xiaohuhu/p/9347489.html
&&国之画&&&& &&&&chrome插件
版权所有 京ICP备号-2
迷上了代码!最近看到张宴前辈的一篇文章,行文逻辑非常好,我自己也试着实现了一下文中作者讨论的逻辑,与大家共享原文。 
  最近遇到一个问题,Linux下的PHP命令行程序作为守护进程,需要从队列文件中读一行数据,通过TCP协议发送给外地的接收服务器,再读下一行数据,再发送。当本地与外地的网络状况不好时,有时候发送一条数据所耗费的时间就较长,累积起来容易造成队列堵塞和延迟。  于是,我准备用该PHP命令行程序生成多个子进程,将串行处理变成并行处理。最简单的方法就是在PHP中用exec()或popen()函数将一个shell命令行推到后台去执行,例如:
&?phpexec("/bin/sh /opt/zhangyan.sh &");?&
  最后的&表示将shell脚本推到后台去执行。  但是这样会有一个问题,如果推到后台的进程太多,可能会导致服务器系统资源耗尽而崩溃,所以必须控制进程数量。
  我写了一个PHP程序(/opt/zhangyan.php)、一个shell程序(/opt/zhangyan.sh)作为测试用例。  程序的逻辑:  1、设置/opt/zhangyan.php最多允许生成500个子进程;  2、当/opt/zhangyan.php读取到一条数据后,将允许生成的子进程数减1(空闲进程数$p_number=500-1=499),然后将数据交给/opt/zhangyan.sh去后台处理,不等待/opt/zhangyan.sh处理结束,继续读取下一条数据;  3、当允许生成的子进程数减至0时(空闲进程数$p_number=0),/opt/zhangyan.php会等待1秒钟,然后检查后台还有多少个/opt/zhangyan.sh子进程尚未处理结束;  4、如果1秒钟之后/opt/zhangyan.php发现后台的/opt/zhangyan.sh子进程数还是500(空闲进程数$p_number=0),会继续等待1秒钟,如此反复;  5、如果/opt/zhangyan.php发现后台尚未处理结束的/opt/zhangyan.sh子进程数减少到300个了(空闲进程数$p_number=500-300=200),那么/opt/zhangyan.php会再往后台推送200个/opt/zhangyan.sh子进程;
/opt/zhangyan.php代码如下:
function&run($input)&&
&&&&global&$p_number;&&
&&&&if&($p_number&&=&0)&&
&&&&&&&&$p_number&=&worker_processes($p_number);&&
&&&&$p_number&=&$p_number&-&1;&&
&&&&$out&=&popen("/bin/sh&/opt/zhangyan.sh&\"{$input}\"&&",&"r");&&
&&&&pclose($out);&&
function&worker_processes($p_number)&&
&&&&$limit&=&500;&&
&&&&while&($p_number&&=&0)&&
&&&&&&&&$cmd&=&popen("ps&-ef&|&grep&\"/opt/zhangyan.sh\"&|&grep&-v&grep&|&wc&-l",&"r");&&
&&&&&&&&$line&=&fread($cmd,&512);&&
&&&&&&&&pclose($cmd);&&
&&&&&&&&$p_number&=&$limit&-&$line;&&
&&&&&&&&if&($p_number&&=&0)&&
&&&&&&&&{&&
&&&&&&&&&&&&sleep(1);&&
&&&&&&&&}&&
&&&&return&$p_number;&&
$input&=&"http://blog.s135.com";&//模拟从队列文件中读取到的数据&&
for&($i&=&1;&$i&&=&1000;&$i++)&&
&&&&run($input);&&
&&&&echo&"Idle&process&number:&"&.&$p_number&.&"\n";&&
  (/opt/zhangyan.php程序用来模拟从队列文件中读取1000行数据,交给子进程/opt/zhangyan.sh去处理。)
/opt/zhangyan.sh代码如下:
#!/bin/sh&&
echo&$(date&-d&"today"&+"%Y-%m-%d&%H:%M:%S")&$1&&&&/opt/zhangyan.log&&
sleep_time=$(expr&$RANDOM&%&4&+&1)&&
sleep&$sleep_time&&
  (/opt/zhangyan.sh脚本用来模拟向外地接收服务器发送数据。其中的$(expr $RANDOM % 4 + 1)用来生成1~5之间的随机数,用来使程序暂停1~5秒钟。暂停1秒表示网络状况好,发送数据顺畅;暂停2~6秒表示网络状况不好,发送过程需要1~5秒。)
 执行程序:
/usr/local/php/bin/php /opt/zhangyan.php
 (/usr/local/php/bin/php因PHP解析器所在的路径) 查看/opt/zhangyan.sh打下的日志文件的第一行和最后一行:
head -n 1 /opt/zhangyan.log
  07:54:13&
tail -n 1 /opt/zhangyan.log
  07:54:18&  可以看出,500进程并发处理这1000条数据只耗费5秒钟。而按照原来的串行模式,处理每条数据即使只耗费最短的1秒钟,也需要1000秒,约合16分钟才能完成。
 PS:将PHP程序作为Linux守护进程的方法:
nohup /usr/local/php/bin/php /opt/zhangyan.php 2&&1 & /dev/null &
 (nohup命令可以在用户退出终端后仍然执行程序,&2&&1 & /dev/null&表示不显示标准输出和错误输出,最后的&表示推到后台执行。)
[文章作者:张宴 本文版本:v1.0 最后修改: 转载请注明出处:]
阅读(...) 评论()

我要回帖

更多关于 软件测试用例模板 的文章

 

随机推荐