如何解决在gatling模拟期间再次加载CSV文件
我正在尝试在两种情况下进行模拟。 设置看起来像这样
setUp(
scn1.inject(rampConcurrentUsers(minUserCount) to (tps) during (testRampSeconds seconds),constantConcurrentUsers(tps) during (testDurationSeconds seconds)).throttle(reachRps(tps) in (1 seconds),holdFor(testDurationSeconds seconds),jumpToRps(0),holdFor(60 seconds)).protocols(httpProtocol),scn2.inject(nothingFor(testDurationSeconds),atOnceUsers(1)).protocols(httpProtocol)
)
方案1进行REST API调用,并将响应数据保存在csv文件中
要写入文件的PrintWriter:
val fileWriter = {
val fos = new java.io.FileOutputStream("foo.csv")
val appTokenWriter = new java.io.PrintWriter(fos,true)
appTokenWriter.println("data")
appTokenWriter
}
方案2等待方案1完成,以便它可以立即处理csv文件中的所有条目。
.foreach(csv(foo.csv).readRecords,"record") {
exec(flattenMapIntoAttributes("${record}"))
.exec(session => {
println(session("data").as[String])
session
})
.exec(...REST Call...)
csv(foo.csv).readRecord没有拾取由censing1刷新到csv中的值。 Scenario2中的csv(foo.csv).readRecords.size = 0,但我可以看到文件中写入的数据
这是在两个方案之间维护数据的正确方法吗? 如果是,如何使.readRecords API选择最新更改。 如果否,请提出正确的方法。
编辑:基于Stephane的实现,尝试使用ConcurrentLinkedDeque
package com.intuit.platform.identity.oauth2.performance.simulation
import java.util.concurrent.ConcurrentLinkedDeque
import io.gatling.core.Predef._
import io.gatling.core.feeder.Feeder
import io.gatling.http.Predef.http
import scala.concurrent.duration._
import scala.util.Random
/**
* @author vnarayanan
*/
class SOSimulation extends Simulation {
val httpProtocol = http.baseUrl("localhost:8080")
val dataQueue = new ConcurrentLinkedDeque[String]()
val saveInQueue = exec{ session => {
dataQueue.offer(session("data").as[String])
session
}
}
class DataFeeder extends Feeder[String] {
override def hasNext: Boolean = dataQueue.size() > 0
override def next(): Map[String,String] = {
Map("data" ->dataQueue.poll())
}
}
val scenario1 = scenario("Scenario1")
.exec(session => {
session.set("data",Random.alphanumeric.take(20).mkString)
})
.exec(saveInQueue)
//I need to stop the requests when the queue is empty. tried it with two solutions:
// 1) asLongAs
// 2) repeat (commented)
val scenario2 = scenario("Scenario2")
.exec(session => {
println(dataQueue.size())
session
})
.asLongAs(dataQueue.size() > 0) {
exec(session => {
println(dataQueue.size())
session
})
.feed(new DataFeeder())
.exec(session => {
println(session("data").as[String])
session
})
}
// With Repeat
// val scenario2 = scenario("Scenario2")
// .exec(session => {
// println(dataQueue.size())
// session
// })
// .repeat(dataQueue.size() ) {
// exec(session => {
// println(dataQueue.size())
// session
// })
// .feed(new DataFeeder())
// .exec(session => {
// println(session("data").as[String])
// session
// })
// }
setUp(
scenario1.inject(atOnceUsers(10)).throttle(reachRps(1) in (1 seconds),holdFor(5 seconds),holdFor(10 seconds)).protocols(httpProtocol),scenario2.inject(nothingFor(5 seconds),atOnceUsers(1)).protocols(httpProtocol)
).maxDuration(10 seconds)
}
解决方法
这是我们内置的csv馈送器无法实现的。
现在,请记住Feeder
是Iterator[Map[String,Any]]
的别名,因此您可以编写自己的实现以支持用例。
例如,您可以将数据保留在ConcurrentLinkedDeque
的内存中,而不是写入文件或从文件中读取。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。