纯Java实现实时音频频谱需手动FFT和可视化,易卡顿延迟高;TarsosDSP最省事,支持自动分帧加窗FFT及回调输出,但须显式设采样率、50%重叠、汉宁窗补偿、dB转换与EDT线程同步。

Java 本身没有内置的实时音频频谱绘制能力,javax.sound.sampled 只能采集原始 PCM 数据,频谱计算和可视化必须手动实现——这意味着你得自己做 FFT(快速傅里叶变换),再把结果映射到图形上。不借助第三方音频处理库(如 TarsosDSP)或 JNI 封装(如 PortAudio + JNA),纯 Java 实现容易卡顿、延迟高、频谱不准。
用 TarsosDSP 做实时音频频谱最省事
TarsosDSP 是纯 Java 的音频处理库,自带 AudioDispatcher、FFT 和 SpectrumAnalyzer,适合桌面端轻量级实时分析。它从麦克风读取数据后自动分帧、加窗、FFT,并通过回调输出频谱幅值数组。
- 必须用
AudioFormat显式指定采样率(推荐44100或48000),否则AudioSystem.getTargetDataLine()可能返回不支持的格式导致静音 -
Overlap设为50%(即bufferSize / 2)能提升时域分辨率,避免频谱跳变 - 频谱点数 =
bufferSize / 2 + 1(实数 FFT 输出),不是 bufferSize 全长 - 绘图建议用
Swing的paintComponent配合双缓冲,别在事件线程里直接repaint()
FFT 输入前必须加汉宁窗(Hanning window)
原始音频帧直接 FFT 会产生频谱泄漏,高频能量“拖尾”,峰位偏移。TarsosDSP 默认不加窗,需手动包装 FloatBuffer 数据。
- 窗口函数用
float[i] *= 0.5 - 0.5 * Math.cos(2 * Math.PI * i / (length - 1)) - 加窗后要对幅值做补偿(通常 ×2),否则低频衰减明显
- 避免用矩形窗(即不加窗)——哪怕只是调试,也会看到底噪抬升、谐波分裂
Swing 绘制频谱条时注意坐标和缩放
频谱 Y 轴是幅值(非分贝),但人耳对数响应,直接画线性值会看不到低能量频段。必须转 dB = 20 * log10(|X[i]| + 1e-9),再归一化到控件高度。
立即学习“Java免费学习笔记(深入)”;
- 不要用
Math.log10(0)——未加保护会得-Infinity,绘图线程崩溃 - X 轴频率分布非线性:索引
i对应频率是i * sampleRate / bufferSize;想看 20Hz–20kHz,bufferSize 至少取 2048(44.1kHz 下最低分辨约 21.5Hz) - 每帧重绘前清空
Graphics2D背景,否则残留拖影;用setComposite(AlphaComposite.Clear)清屏比 fillRect 更稳
import be.tarsos.dsp.AudioDispatcher; import be.tarsos.dsp.AudioEvent; import be.tarsos.dsp.io.jvm.JVMAudioInputStream; import be.tarsos.dsp.pitch.PitchDetectionHandler; import be.tarsos.dsp.pitch.PitchDetectionResult; import be.tarsos.dsp.pitch.PitchProcessor;import javax.swing.; import java.awt.; import java.awt.geom.Rectangle2D;
public class SpectrumPanel extends JPanel implements PitchDetectionHandler { private final int width = 800; private final int height = 300; private final double[] spectrum = new double[1024]; private final float[] buffer = new float[2048];
public SpectrumPanel() { setPreferredSize(new Dimension(width, height)); setBackground(Color.BLACK); } @Override protected void paintComponent(Graphics g) { super.paintComponent(g); Graphics2D g2 = (Graphics2D) g; g2.setRenderingHint(RenderingHints.KEY_ANTIALIASING, RenderingHints.VALUE_ANTIALIAS_ON); for (int i = 0; i < spectrum.length && i < width; i++) { double y = height - (spectrum[i] * height * 0.8); g2.setColor(new Color(0, (int)(spectrum[i]*200), 255)); g2.fill(new Rectangle2D.Double(i, y, 1, height - y)); } } @Override public void handlePitch(PitchDetectionResult result, AudioEvent e) { float[] audioBytes = e.getFloatBuffer(); System.arraycopy(audioBytes, 0, buffer, 0, Math.min(audioBytes.length, buffer.length)); // Apply Hanning window for (int i = 0; i < buffer.length; i++) { buffer[i] *= 0.5 - 0.5 * Math.cos(2 * Math.PI * i / (buffer.length - 1)); } // Simple magnitude spectrum (real FFT assumed) for (int i = 0; i < Math.min(spectrum.length, buffer.length/2+1); i++) { double re = 0, im = 0; // Dummy FFT — in real use: feed to FFT class or use Tarsos' FFT // This is placeholder logic; actual impl needs proper FFT spectrum[i] = Math.max(0.01, Math.sqrt(re*re + im*im) * 2); spectrum[i] = 20 * Math.log10(spectrum[i] + 1e-9); // to dB spectrum[i] = Math.min(1.0, Math.max(0.0, (spectrum[i] + 60) / 60)); // normalize 0–1 } repaint(); } public static void main(String[] args) { JFrame frame = new JFrame("Spectrum Analyzer"); SpectrumPanel panel = new SpectrumPanel(); frame.add(panel); AudioDispatcher dispatcher = AudioDispatcher.fromDefaultMicrophone(2048, 1024); dispatcher.addAudioProcessor(new PitchProcessor(PitchProcessor.PitchEstimationAlgorithm.FFT_YIN, 44100, 2048, panel)); new Thread(dispatcher).start(); frame.setDefaultCloseOperation(JFrame.EXIT_ON_CLOSE); frame.pack(); frame.setVisible(true); }}
真正卡住的地方不在 FFT 算法本身,而在音频流与 UI 线程的同步:Swing 不是线程安全的,
repaint()必须在 EDT 中触发,但音频回调在后台线程。上面示例用了 TarsosDSP 的PitchProcessor包装器来桥接,实际项目中更稳妥的做法是用SwingUtilities.invokeLater()包裹repaint(),否则偶尔会抛NullPointerException或界面冻结。










