Skip to content
  • 最新
  • 版块
  • 东岳流体
  • 随机看[请狂点我]
皮肤
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • 默认(不使用皮肤)
  • 不使用皮肤
折叠
CFD中文网

CFD中文网

  1. CFD中文网
  2. OpenFOAM
  3. OpenFOAM并行输出格式的问题

OpenFOAM并行输出格式的问题

已定时 已固定 已锁定 已移动 OpenFOAM
15 帖子 3 发布者 10.5k 浏览
  • 从旧到新
  • 从新到旧
  • 最多赞同
回复
  • 在新帖中回复
登录后回复
此主题已被删除。只有拥有主题管理权限的用户可以查看。
  • H 离线
    H 离线
    hurricane007
    写于2019年4月16日 07:54 最后由 编辑
    #1

    我在学校集群上算东西,有些算例是直接在主文件夹里面输出每个时间点的数据,有的是在processor*/文件夹里面输出的。大家知道这个设置的点是在哪儿么?

    1 条回复 最后回复
  • H 离线
    H 离线
    hurricane007
    写于2019年4月16日 08:07 最后由 李东岳 编辑 2019年4月16日 16:46
    #2

    补充一下,前者是processor文件夹里面没有各个时间点的数据,而process文件夹里面没有时间点的数据,如下图

    2d8695bb-f16f-4166-a683-99ce599116ae-image.png

    1 条回复 最后回复
  • 李 在线
    李 在线
    李东岳 管理员
    写于2019年4月16日 08:47 最后由 编辑
    #3

    是不是reconstruct之后的数据?然后把proce删了,又decomp一下?

    http://dyfluid.com/index.html
    需要帮助debug算例的看这个 https://cfd-china.com/topic/8018

    1 条回复 最后回复
  • H 离线
    H 离线
    hurricane007
    写于2019年4月16日 09:11 最后由 编辑
    #4

    没有没有,这个是运行的时候就开始出现各个时间点的数据的,每个保存的时间点他都自动保存在主目录了。我就觉得很奇怪,但是又觉得这是个很好的方式。有一次似乎看过输出格式有写这样子,但是后面找不到了,所以想来问问

    1 条回复 最后回复
  • 李 在线
    李 在线
    李东岳 管理员
    写于2019年4月16日 09:16 最后由 编辑
    #5

    还没这么玩过啊。我Google了一下,你试试这个?

    https://www.cfd-online.com/Forums/blogs/kkk/2957-auto-reconstructpar.html

    http://dyfluid.com/index.html
    需要帮助debug算例的看这个 https://cfd-china.com/topic/8018

    H 1 条回复 最后回复 2019年4月16日 12:24
  • Z 离线
    Z 离线
    Zephyr
    写于2019年4月16日 10:24 最后由 编辑
    #6

    你可以查看这个文件 $FOAM_TUTORIALS/IO/fileHandler/Allrun

    1 条回复 最后回复
  • H 离线
    H 离线
    hurricane007
    写于2019年4月16日 12:20 最后由 编辑
    #7

    你用的是哪个版本啊,我的4.1好像没有这个东西。tutorials里面并没有IO

    744f5951-62b1-481c-a4e1-e6f5fbba0cb5-image.png

    1 条回复 最后回复
  • H 离线
    H 离线
    hurricane007
    在 2019年4月16日 12:24 中回复了 李东岳 最后由 编辑
    #8

    @东岳 但是我这个运行的目录里面没有这些代码啊。。。就是OpenFOAM 4.1 的tutorials,不然我上传一下大家分析下?还是因为这是我的cluster的设置?不过不科学啊
    Goldschmidt.zip

    Z 1 条回复 最后回复 2019年4月17日 04:41
  • Z 离线
    Z 离线
    Zephyr
    在 2019年4月17日 04:41 中回复了 hurricane007 最后由 编辑
    #9

    @hurricane007 啊,好吧,我用的版本是开发版v1712, 我直接给你贴出来好了

    #!/bin/sh
    cd ${0%/*} || exit 1                        # Run from this directory
    . $WM_PROJECT_DIR/bin/tools/RunFunctions    # Tutorial run functions
    
    runApplication blockMesh
    
    application=$(getApplication)
    
    #- Test writing collated format
    runApplication decomposePar -fileHandler collated
    runParallel $application -fileHandler collated
    runApplication reconstructPar -latestTime -fileHandler collated
    
    #- Delete collated files
    rm -rf processors
    
    #- Test writing uncollated format
    runApplication -s uncollated decomposePar -fileHandler uncollated
    runParallel -s uncollated $application -fileHandler uncollated
    
    #- Restart from uncollated
    runParallel -s collated $application -fileHandler collated
    runApplication -s collated reconstructPar -latestTime -fileHandler collated
    
    #- Convert the parallel format to uncollated
    runParallel foamFormatConvert -fileHandler uncollated
    
    #------------------------------------------------------------------------------
    
    H 1 条回复 最后回复 2019年4月17日 07:29
  • H 离线
    H 离线
    hurricane007
    在 2019年4月17日 07:29 中回复了 Zephyr 最后由 编辑
    #10

    @Zephyr
    这个做法应该是运行完再reconstructPar,然后删除processers里面的文件,用的是collated格式,应该是这篇文章里面提到的OpenFOAM Parallel I/O.
    但是,我找了下我那个case,发现并没有这个设置,所以发上来看看大家有没有见过。

    Z 1 条回复 最后回复 2019年4月18日 11:01
  • Z 离线
    Z 离线
    Zephyr
    在 2019年4月18日 11:01 中回复了 hurricane007 最后由 编辑
    #11

    @hurricane007 你仔细看一下那些算例的Allrun怎么写的,如果用mpirun -np <nprocs> <executable> 后面必须带 -parallel参数,否则就变成算n个一模一样的串行了

    H 3 条回复 最后回复 2019年4月18日 14:31
  • H 离线
    H 离线
    hurricane007
    在 2019年4月18日 14:31 中回复了 Zephyr 最后由 编辑
    #12

    @Zephyr @Zephyr
    你这个倒是提醒了我,我去提交个单核的算一算。查一下cluster的documentation,cluster用的是slurm, 看例子是上面设置好以后最后srun就可以了,似乎不用自己加parallel,提交的脚本大概是这样

    #!/bin/bash
    #
    # Submission script for Lemaitre3
    #SBATCH --job-name=testDPMFoam
    #SBATCH --output=DPMLog
    #SBATCH --time=24:00:00 # hh:mm:ss
    #
    #SBATCH --ntasks=1 # 多核就直接把这儿变成要的核数,提前做好blockMesh 和 decomposePar
    # SBATCH --nodes=1
    #SBATCH --mem-per-cpu=2000 # megabytes
    #
    srun DPMFoam
    
    
    1 条回复 最后回复
  • H 离线
    H 离线
    hurricane007
    在 2019年4月18日 14:31 中回复了 Zephyr 最后由 编辑
    #13

    @Zephyr
    你这个倒是提醒了我,我去提交个单核的算一算。查了一下cluster的documentation,cluster用的是slurm, 看例子是上面设置好以后最后srun就可以了,似乎不用自己加parallel,提交的脚本大概是这样

    #!/bin/bash
    #
    # Submission script for Lemaitre3
    #SBATCH --job-name=testDPMFoam
    #SBATCH --output=DPMLog
    #SBATCH --time=24:00:00 # hh:mm:ss
    #
    #SBATCH --ntasks=1 # 多核就直接把这儿变成要的核数,提前做好blockMesh 和 decomposePar
    # SBATCH --nodes=1
    #SBATCH --mem-per-cpu=2000 # megabytes
    #
    srun DPMFoam
    
    
    1 条回复 最后回复
  • H 离线
    H 离线
    hurricane007
    在 2019年4月18日 17:27 中回复了 Zephyr 最后由 编辑
    #14

    @Zephyr 破案了,就是没有并行所以直接输出在case 目录了,所以要用mpirun -np 6 DPMFoam -parallel 提交。不知道学校的cluster有啥问题,用srun 运行wiki上那个MPI例子就会并行,运行DPMFoam 就不会并行。已经和学校IT说了,看有啥反馈

    1 条回复 最后回复
  • 李 在线
    李 在线
    李东岳 管理员
    写于2019年4月18日 23:31 最后由 编辑
    #15

    感谢分享 :xiexie:

    http://dyfluid.com/index.html
    需要帮助debug算例的看这个 https://cfd-china.com/topic/8018

    1 条回复 最后回复
2019年4月16日 07:54

1/15

2019年4月16日 07:54

未读 14
2019年4月18日 23:31
  • 登录

  • 登录或注册以进行搜索。
1 / 15
  • 第一个帖子
    1/15
    最后一个帖子
0
  • 最新
  • 版块
  • 东岳流体
  • 随机看[请狂点我]