帆软FineReport如何使用程序数据集
大多数情况下,FineReport直接在设计器里使用“数据集查询”,直接写SQL就能满足报表要求,但对于一些复杂的报表,有时候SQL处理并不方便,这时可以把查询结果在应用层做一些预处理后,再传递给报表,即所谓的“程序数据集”,FineReport的帮助文档上给了一个示例:
package com.fr.data; import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.ResultSet;
import java.sql.ResultSetMetaData;
import java.sql.Statement;
import java.util.ArrayList;
import com.fr.base.FRContext;
import com.fr.data.AbstractTableData;
import com.fr.base.Parameter; public class ParamTableDataDemo extends AbstractTableData {
// 列名数组,保存程序数据集所有列名
private String[] columnNames = null;
// 定义程序数据集的列数量
private int columnNum = 10;
// 保存查询表的实际列数量
private int colNum = 0;
// 保存查询得到列值
private ArrayList valueList = null; // 构造函数,定义表结构,该表有10个数据列,列名为column#0,column#1,。。。。。。column#9
public ParamTableDataDemo() {
// 定义tableName参数
this.parameters = new Parameter[] { new Parameter("tableName") };
// 定义程序数据集列名
columnNames = new String[columnNum];
for (int i = 0; i < columnNum; i++) {
columnNames[i] = "column#" + String.valueOf(i);
}
} // 实现其他四个方法
public int getColumnCount() {
return columnNum;
} public String getColumnName(int columnIndex) {
return columnNames[columnIndex];
} public int getRowCount() {
init();
return valueList.size();
} public Object getValueAt(int rowIndex, int columnIndex) {
init();
if (columnIndex >= colNum) {
return null;
}
return ((Object[]) valueList.get(rowIndex))[columnIndex];
} // 准备数据
public void init() {
// 确保只被执行一次
if (valueList != null) {
return;
}
// 保存得到的数据库表名
String tableName = parameters[0].getValue().toString();
// 构造SQL语句,并打印出来
String sql = "select * from " + tableName + ";";
FRContext.getLogger().info("Query SQL of ParamTableDataDemo: \n" + sql);
// 保存得到的结果集
valueList = new ArrayList();
// 下面开始建立数据库连接,按照刚才的SQL语句进行查询
Connection conn = this.getConnection();
try {
Statement stmt = conn.createStatement();
ResultSet rs = stmt.executeQuery(sql);
// 获得记录的详细信息,然后获得总列数
ResultSetMetaData rsmd = rs.getMetaData();
colNum = rsmd.getColumnCount();
// 用对象保存数据
Object[] objArray = null;
while (rs.next()) {
objArray = new Object[colNum];
for (int i = 0; i < colNum; i++) {
objArray[i] = rs.getObject(i + 1);
}
// 在valueList中加入这一行数据
valueList.add(objArray);
}
// 释放数据库资源
rs.close();
stmt.close();
conn.close();
// 打印一共取到的数据行数量
FRContext.getLogger().info(
"Query SQL of ParamTableDataDemo: \n" + valueList.size()
+ " rows selected");
} catch (Exception e) {
e.printStackTrace();
}
} // 获取数据库连接 driverName和 url 可以换成您需要的
public Connection getConnection() {
String driverName = "sun.jdbc.odbc.JdbcOdbcDriver";
String url = "jdbc:odbc:Driver={Microsoft Access Driver (*.mdb)};DBQ=D:\\FineReport_7.0\\WebReport\\FRDemo.mdb";
String username = "";
String password = "";
Connection con = null;
try {
Class.forName(driverName);
con = DriverManager.getConnection(url, username, password);
} catch (Exception e) {
e.printStackTrace();
return null;
}
return con;
} // 释放一些资源,因为可能会有重复调用,所以需释放valueList,将上次查询的结果释放掉
public void release() throws Exception {
super.release();
this.valueList = null;
}
}
这个示例我个人觉得有二个地方不太方便:
1、db连接串硬编码写死在代码里,维护起来不太方便,目前大多数b/s应用,对于数据库连接,通常是利用spring在xml里配置datasource bean,运行时动态注入
2、将查询出的结果,填充到数据集时,采用的是数字索引(见82行),代码虽然简洁,但是可读性比较差
折腾一番后,于是便有了下面的改进版本:
package infosky.ckg.fr.data; import infosky.ckg.utils.AppContext;
import java.sql.Connection;
import java.sql.ResultSet;
import java.sql.Statement;
import java.util.LinkedHashMap;
import java.util.LinkedHashSet;
import javax.sql.DataSource;
import com.fr.base.Parameter;
import com.fr.data.AbstractTableData;
import com.fr.general.data.TableDataException; public class ParameterLinkedHashSetDataDemo extends AbstractTableData { private static final long serialVersionUID = 8818000311745955539L; // 字段名枚举
enum FIELD_NAME {
EMPLOYEE_ID, FIRST_NAME, LAST_NAME, EMAIL, PHONE_NUMBER, HIRE_DATE, JOB_ID, SALARY
} private String[] columNames; private LinkedHashSet<LinkedHashMap<String, Object>> rowData; public ParameterLinkedHashSetDataDemo() {
this.parameters = new Parameter[] { new Parameter("jobId"),
new Parameter("minSalary"), new Parameter("maxSalary") }; // 填充字段名
columNames = new String[FIELD_NAME.values().length];
int i = 0;
for (FIELD_NAME fieldName : FIELD_NAME.values()) {
columNames[i] = fieldName.toString();
i++;
} } @Override
public int getColumnCount() throws TableDataException {
return columNames.length;
} @Override
public String getColumnName(int columnIndex) throws TableDataException {
return columNames[columnIndex];
} @Override
public int getRowCount() throws TableDataException {
queryData();
return rowData.size();
} @Override
public Object getValueAt(int rowIndex, int columnIndex) {
queryData();
int tempRowIndex = 0;
for (LinkedHashMap<String, Object> row : rowData) {
if (tempRowIndex == rowIndex) {
return row.get(columNames[columnIndex]);
}
tempRowIndex += 1;
}
return null;
} // 查询数据
private void queryData() {
// 确保只被执行一次
if (rowData != null) {
return;
} // 传入的参数
String jobId = parameters[0].getValue().toString();
float minSalary = Float.parseFloat(parameters[1].getValue().toString());
float maxSalary = Float.parseFloat(parameters[2].getValue().toString()); // 拼装SQL
String sql = "select * from EMPLOYEES where JOB_ID='" + jobId
+ "' and SALARY between " + minSalary + " and " + maxSalary; rowData = new LinkedHashSet<LinkedHashMap<String, Object>>(); Connection conn = this.getConnection();
try {
Statement stmt = conn.createStatement();
// 执行查询
ResultSet rs = stmt.executeQuery(sql);
while (rs.next()) {
// 填充行数据
// 注:字段赋值的顺序,要跟枚举里的顺序一样
LinkedHashMap<String, Object> row = new LinkedHashMap<String, Object>();
row.put(FIELD_NAME.EMPLOYEE_ID.toString(),
rs.getInt(FIELD_NAME.EMPLOYEE_ID.toString()));
row.put(FIELD_NAME.FIRST_NAME.toString(),
rs.getString(FIELD_NAME.FIRST_NAME.toString()));
row.put(FIELD_NAME.LAST_NAME.toString(),
rs.getString(FIELD_NAME.LAST_NAME.toString()));
row.put(FIELD_NAME.EMAIL.toString(),
rs.getString(FIELD_NAME.EMAIL.toString()));
row.put(FIELD_NAME.PHONE_NUMBER.toString(),
rs.getString("PHONE_NUMBER"));
row.put(FIELD_NAME.HIRE_DATE.toString(),
rs.getDate(FIELD_NAME.HIRE_DATE.toString()));
row.put(FIELD_NAME.JOB_ID.toString(),
rs.getString(FIELD_NAME.JOB_ID.toString()));
row.put(FIELD_NAME.SALARY.toString(),
rs.getFloat(FIELD_NAME.SALARY.toString()));
rowData.add(row);
}
rs.close();
stmt.close();
conn.close();
} catch (Exception e) {
e.printStackTrace();
} } // 获取数据库连接
private Connection getConnection() {
Connection con = null;
try {
DataSource dataSource = AppContext.getInstance().getAppContext()
.getBean("dataSource", DataSource.class);
con = dataSource.getConnection();
} catch (Exception e) {
e.printStackTrace();
return null;
}
return con;
} // 释放资源
public void release() throws Exception {
super.release();
this.rowData = null;
} }
改进的地方:
1、getConnection方法,利用Spring注入datasource,当然为了注入方便,还需要一个辅助类AppContext
package infosky.ckg.utils; import org.springframework.context.support.AbstractApplicationContext;
import org.springframework.context.support.ClassPathXmlApplicationContext; public class AppContext {
private static AppContext instance; private AbstractApplicationContext appContext; public synchronized static AppContext getInstance() {
if (instance == null) {
instance = new AppContext();
}
return instance;
} private AppContext() {
this.appContext = new ClassPathXmlApplicationContext(
"spring/root-context.xml");
} public AbstractApplicationContext getAppContext() {
return appContext;
} }
classes/spring/root-context.xml 里配置db连接
<?xml version="1.0" encoding="UTF-8"?>
<beans xmlns="http://www.springframework.org/schema/beans"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://www.springframework.org/schema/beans
http://www.springframework.org/schema/beans/spring-beans.xsd"> <bean id="dataSource"
class="org.springframework.jdbc.datasource.DriverManagerDataSource">
<property name="driverClassName" value="oracle.jdbc.driver.OracleDriver" /> <property name="url" value="jdbc:oracle:thin:@localhost:1521:XE" />
<property name="username" value="hr" />
<property name="password" value="hr" />
</bean>
</beans>
2、将原来的数组,换成了LinkedHashSet<LinkedHashMap<String, Object>>,这样db查询结果填充到"数据集"时,处理代码的可读性就多好了(见queryData方法),但也要注意到LinkedHashSet/LinkedHashMap的性能较Array而言,有所下降,正所谓:有所得必有得失。但对于复杂的汇总统计报表,展示的数据通常不会太多,所以这个问题我个人看来并不严重。
帆软FineReport如何使用程序数据集的更多相关文章
- PCB 帆软FineReport安装,布署,配置
公司使用帆软FineReport做为报表平台工具也有一年多时间,而FineReport报表平台与Tomcat Web应用服务是站队在java阵营里,因为相信拥抱微软;.net未来发展会越来越好,所以对 ...
- 帆软FineReport报表由于使用HTML显示后无法控制行高
问题:帆软FineReport报表由于使用HTML显示后无法控制行高. 原因:首先每行的第一个单元格是以HTML显示的,然后,数据库查询的数据集中,sql语句中包含这个代码:'<pre>' ...
- 帆软FineReport报表使用小技巧
1.IF函数写法: =IF(E3=0 && F3=0 && G3=0,1,0)
- 帆软报表FineReport中数据连接的JDBC连接池属性问题
连接池原理 在帆软报表FineReport中,连接池主要由三部分组成:连接池的建立.连接池中连接使用的治理.连接池的关闭.下面就着重讨论这三部分及连接池的配置问题. 1. 连接池原理 连接池技术的核心 ...
- 帆软报表FineReport SQLServer数据库连接失败常见解决方案
1. 问题描述 帆软报表FineReport客户端连接SQLServer(2000.2005等),常常会出现如下错误:com.microsoft.sqlserver.jdbc.SQLServerExc ...
- 帆软报表FineReport中数据连接之Weblogic配置JNDI连接
1. 制作报表的原理 在帆软报表FineReport设计器中先用JDBC连接到数据库,建立数据库连接,然后用SQL或者其他方法创建数据集,使用数据集制作报表,然后把建立的数据库连接从JDBC连接改成J ...
- 帆软报表FineReport中数据连接之Websphere配置JNDI连接
以oracle9i数据源制作的模板jndi.cpt为例来说明如何在FineReport中的Websphere配置JNDI连接.由于常用服务器的JNDI驱动过大,帆软报表FineReport中没有自带, ...
- 帆软报表(finereport)安装/配置
1.首先是安装帆软报表软件 下载地址:http://www.finereport.com/product/download 激活码注册格账号就有了 2.启动软件,新建连接数据库 点 ...
- 帆软 联合 创始人 数据可视化 中国 发展 FineReport FineBI
丧心病狂!帆软公司的成立竟源于一个被初恋抛弃的程序员 - 大数据-炼数成金-Dataguru专业数据分析社区http://dataguru.cn/article-7500-1.html 帆软联合创始人 ...
随机推荐
- #VSTS 日志# TFS 2015 Update 1 发布 – Git和TFVC代码库可以混合使用了
Visual Studio Team Foundation Server 2015 Update 1已经发布了. 这是 Team Foundation Server (TFS) 的最新版本,是 Mic ...
- [20140711] SQL Server page还原
create DATABASE T --数据库不能是简单模式 go USE t GO )) GO INSERT INTO dbo.t ( value ) VALUES ( ) ) BACKUP DAT ...
- 转载 sql 存储过程与函数区别
SQL Server用户自定义函数和存储过程有类似的功能,都可以创建捆绑SQL语句,存储在server中供以后使用.这样能够极大地提高工作效率,通过以下的各种做法可以减少编程所需的时间: 重复使用编程 ...
- JDK动态代理和CGLIB的区别
Aspect默认情况下不用实现接口,但对于目标对象,在默认情况下必须实现接口 如果没有实现接口必须引入CGLIB库 我们可以通过Advice中添加一个JoinPoint参数,这个值会由spring自动 ...
- 今天说一下Order by 这个常规东西~
Order by 在我们日常的数据库开发生活中是出镜率灰常高的. order by 的作用就是用于对查询出来的结果进行排序~对啊~人家就是这么接地气~比如按发生时间啊,首字母啊之类的都是相当常见. 今 ...
- 给锁住的行解锁(oracle)
1.查看数据库锁,诊断锁的来源及类型: select object_id,session_id,locked_mode from v$locked_object; 或者用以下命令: select b. ...
- srping MVC 工程简单搭建
Spring版本:3.2.2.RELEASE 第一步:导入必须的jar包 spring-beans.jar spring-context.jar spring-core.jar spring-expr ...
- Python基础-day2
1.Python模块python 中导入模块使用import语法格式:import module_name示例1: 导入os模块system('dir')列出当前目录下的所有文件 # _*_ codi ...
- shell脚本切割tomcat的日志文件
鉴于在调试logback和log4j的文件切割一直无法成功,随性用shell写个脚本用来切割tomcat下的日志文件(大家如果有在logback或log4j使用文件切割成功的话,可以留下使用方式,先谢 ...
- Centos 开机自启动一些软件配置
CentOS设置服务开机启动的方法 CentOS设置服务开机启动的两种方法 1.利用 chkconfig 来配置启动级别 在CentOS或者RedHat其他系统下,如果是后面安装的服务,如http ...