FreeBSD y ZFS

Como muchos saben, existe un SO de este tipo: FreeBSD. Mala o buena, no importa, está fuera del alcance de este cuestionario. Para aquellos que les gusta escribir algo como "FreeBSD - RIP", por favor, den un paseo en link y dejen esta inscripción allí.
Además, existe un sistema de archivos llamado ZFS, el desarrollo de Sun Microsystems comido recientemente. El sistema de archivos es extremadamente interesante y bastante notable.

Soy el administrador del sistema de HabraHabr y pronto planeo una actualización bastante seria de la economía del servidor. Entre las ideas tengo una idea para usar ZFS. Recientemente comencé a probar ZFS en FreeBSD 8.1-RELEASE. El vuelo es normal, el núcleo del pánico nunca fue, la velocidad satisface. Pero Internet es muy diferente en las revisiones, a veces simplemente inadecuadas. El nivel de abstracción del sistema de archivos es simplemente asombroso: puede dirigir las secciones como quiera sobre la marcha; La velocidad es buena, en algunos lugares más rápido que UFS2 + SU, y también es muy fácil de implementar. Satisface las secciones de compresión de caja, instantáneas y otras utilidades. Lo recogí en mi servidor de prueba: todo funciona bien, no noté ningún problema.

Pero aún así, quiero saber las opiniones de aquellos que se encontraron directamente con la implementación de ZFS en el servidor de batalla que ejecuta FreeBSD y utilizaron ese paquete bajo carga real durante bastante tiempo. Las pruebas sintéticas también son interesantes, pero en menor medida, porque las sintéticas son sintéticas. Sí: solo uso conjuntos de SO estables, la encuesta es más relevante para ellos.

Respuestas
hieu do
Durante aproximadamente un año, FreeBSD con ZFS ha sido productivo en el servidor de archivos. El retorno promedio es de 1TB de tráfico por día. Servidor: CPU - 2xOpteron 2214, Mem - 32G, controlador - AMCC 9650SE-12M, discos - serie Seagate NS, 10-12 piezas + SSD Intel X25-M bajo el dispositivo de caché. No es un solo bloqueo de ZFS para toda la operación del servidor. El único problema es la sustitución de discos fallidos en raidz. Usted reemplaza el disco, la agrupación se vuelve a crear en un nuevo disco y la anterior no abandona la configuración. Encontré el PR para este error, lo reparé o no, no lo sé.
john paul pagano
En un servidor doméstico (Cel3300, 2Gb, 4xWD EARS 2Tb; FreeBSD 8.1 amd64) Uso ZFS en una configuración 4xRAID1 y RAID10:

 
root@server:/usr/local/etc (1768) zpool status
  pool: storage
 state: ONLINE
 scrub: none requested
config:

        NAME                 STATE     READ WRITE CKSUM
        storage              ONLINE       0     0     0
          mirror             ONLINE       0     0     0
            gpt/storage0     ONLINE       0     0     0
            gpt/storage3     ONLINE       0     0     0
          mirror             ONLINE       0     0     0
            gpt/storage1     ONLINE       0     0     0
            gpt/storage2     ONLINE       0     0     0

errors: No known data errors

  pool: zroot
 state: ONLINE
 scrub: none requested
config:

        NAME             STATE     READ WRITE CKSUM
        zroot            ONLINE       0     0     0
          mirror         ONLINE       0     0     0
            gpt/system0  ONLINE       0     0     0
            gpt/system2  ONLINE       0     0     0
            gpt/system3  ONLINE       0     0     0
            gpt/system1  ONLINE       0     0     0

errors: No known data errors


Los discos están rotos de esta manera (2 MB sangrados al principio del disco para solucionar los problemas de AdvancedFormat en los tornillos WD EARS):

 
root@server:/usr/local/etc (1771) gpart show
=>        34  3907029101  ada0  GPT  (1.8T)
          34        2014        - free -  (1.0M)
        2048         128     1  freebsd-boot  (64K)
        2176     8388608     2  freebsd-swap  (4.0G)
     8390784    41943040     3  freebsd-zfs  (20G)
    50333824  3856695311     4  freebsd-zfs  (1.8T)

=>        34  3907029101  ada1  GPT  (1.8T)
          34        2014        - free -  (1.0M)
        2048         128     1  freebsd-boot  (64K)
        2176     8388608     2  freebsd-swap  (4.0G)
     8390784    41943040     3  freebsd-zfs  (20G)
    50333824  3856695311     4  freebsd-zfs  (1.8T)

=>        34  3907029101  ada2  GPT  (1.8T)
          34        2014        - free -  (1.0M)
        2048         128     1  freebsd-boot  (64K)
        2176     8388608     2  freebsd-swap  (4.0G)
     8390784    41943040     3  freebsd-zfs  (20G)
    50333824  3856695311     4  freebsd-zfs  (1.8T)

=>        34  3907029101  ada3  GPT  (1.8T)
          34        2014        - free -  (1.0M)
        2048         128     1  freebsd-boot  (64K)
        2176     8388608     2  freebsd-swap  (4.0G)
     8390784    41943040     3  freebsd-zfs  (20G)
    50333824  3856695311     4  freebsd-zfs  (1.8T)


Problema: ZFS RAID10 tiene baja velocidad de lectura y escritura:
Por ejemplo, entrada:

 
dd if=/dev/zero of=/storage/test.file bs=1000M count
1+0 records in
1+0 records out
1048576000 bytes transferred in 33.316996 secs (31472705 bytes/sec)


O leyendo:

 
 dd if=/storage/test.file of=/dev/nulbs=1000M count=1
1+0 records in
1+0 records out
1048576000 bytes transferred in 13.424865 secs (78107005 bytes/sec)


systat se ve así:

 
    2 users    Load  0,29  0,12  0,04                  19 окт 14:27

Mem:KB    REAL            VIRTUAL                       VN PAGER   SWAP PAGER
        Tot   Share      Tot    Share    Free           in   out     in   out
Act 1048432    7548  2771456    11732   87616  count
All 1232436   10608 1076589k    29964          pages
Proc:                                                            Interrupts
  r   p   d   s   w   Csw  Trp  Sys  Int  Sof  Flt        cow    4770 total
             69      8556  20k  517  776  798  20k  20581 zfod    104 em0 uhci0
                                                        2 ozfod     5 uhci3 ehci
 9,7%Sys   0,0%Intr  0,0%User  0,0%Nice 90,3%Idle        %ozfod  1997 cpu0: time
|    |    |    |    |    |    |    |    |    |    |       daefr       hdac0 257
=====                                                     prcfr   667 ahci0 259
                                           dtbuf     3762 totfr  1997 cpu1: time
Namei     Name-cache   Dir-cache    100000 desvn          react
   Calls    hits   %    hits   %     26371 numvn          pdwak
       2       2 100                 24996 frevn          pdpgs
                                                          intrn
Disks  ada0  ada1  ada2  ada3   da0 pass0 pass1    429056 wire
KB/t    128   128   128   127  0,00  0,00  0,00   1103516 act
tps     156   173   188   145     0     0     0    368484 inact
MB/s  19,51 21,62 23,48 18,03  0,00  0,00  0,00           cache
%busy    18    35    35    16     0     0     0     87616 free
                                                          buf


Y desde los discos se lee bastante aceptable:

 
1073741824 bytes transferred in 9.673196 secs (111001764 bytes/sec)
root@server:/usr/home/dyr (1769) dd if=/dev/gpt/storage1 of=/dev/null bs=1024M count=1
1+0 records in
1+0 records out
1073741824 bytes transferred in 9.887180 secs (108599400 bytes/sec)
root@server:/usr/home/dyr (1770) dd if=/dev/gpt/storage2 of=/dev/null bs=1024M count=1
1+0 records in
1+0 records out
1073741824 bytes transferred in 9.736273 secs (110282635 bytes/sec)
root@server:/usr/home/dyr (1772) dd if=/dev/gpt/storage3 of=/dev/null bs=1024M count=1
1+0 records in
1+0 records out
1073741824 bytes transferred in 11.112231 secs (96627025 bytes/sec)


¿Cuál es la razón por la que no entiendo.

 
vfs.zfs.l2c_only_size: 3535428608
vfs.zfs.mfu_ghost_data_lsize: 23331328
vfs.zfs.mfu_ghost_metadata_lsize: 20963840
vfs.zfs.mfu_ghost_size: 44295168
vfs.zfs.mfu_data_lsize: 0
vfs.zfs.mfu_metadata_lsize: 0
vfs.zfs.mfu_size: 11698176
vfs.zfs.mru_ghost_data_lsize: 22306304
vfs.zfs.mru_ghost_metadata_lsize: 8190464
vfs.zfs.mru_ghost_size: 30496768
vfs.zfs.mru_data_lsize: 512
vfs.zfs.mru_metadata_lsize: 0
vfs.zfs.mru_size: 20443648
vfs.zfs.anon_data_lsize: 0
vfs.zfs.anon_metadata_lsize: 0
vfs.zfs.anon_size: 1048576
vfs.zfs.l2arc_norw: 1
vfs.zfs.l2arc_feed_again: 1
vfs.zfs.l2arc_noprefetch: 0
vfs.zfs.l2arc_feed_min_ms: 200
vfs.zfs.l2arc_feed_secs: 1
vfs.zfs.l2arc_headroom: 2
vfs.zfs.l2arc_write_boost: 8388608
vfs.zfs.l2arc_write_max: 8388608
vfs.zfs.arc_meta_limit: 106137600
vfs.zfs.arc_meta_used: 104179208
vfs.zfs.mdcomp_disable: 0
vfs.zfs.arc_min: 53068800
vfs.zfs.arc_max: 424550400
vfs.zfs.zfetch.array_rd_sz: 1048576
vfs.zfs.zfetch.block_cap: 256
vfs.zfs.zfetch.min_sec_reap: 2
vfs.zfs.zfetch.max_streams: 8
vfs.zfs.prefetch_disable: 1
vfs.zfs.check_hostid: 1
vfs.zfs.recover: 0
vfs.zfs.txg.write_limit_override: 0
vfs.zfs.txg.synctime: 5
vfs.zfs.txg.timeout: 10
vfs.zfs.scrub_limit: 10
vfs.zfs.vdev.cache.bshift: 16
vfs.zfs.vdev.cache.size: 10485760
vfs.zfs.vdev.cache.max: 16384
vfs.zfs.vdev.aggregation_limit: 131072
vfs.zfs.vdev.ramp_rate: 2
vfs.zfs.vdev.time_shift: 6
vfs.zfs.vdev.min_pending: 4
vfs.zfs.vdev.max_pending: 10
vfs.zfs.cache_flush_disable: 0
vfs.zfs.zil_disable: 0
vfs.zfs.zio.use_uma: 0
vfs.zfs.version.zpl: 4
vfs.zfs.version.spa: 15
vfs.zfs.version.dmu_backup_stream: 1
vfs.zfs.version.dmu_backup_header: 2
vfs.zfs.version.acl: 1
vfs.zfs.debug: 0
vfs.zfs.super_owner: 0


La presencia de las opciones del sistema de archivos sharesmb y sharenfs es un poco molesta. Está claro lo que hacen en Solaris, pero en FreeBSD, como lo entiendo, simplemente no funcionan.
O aquí hay otra rareza: al ejecutar zpool scrub storage, zpool iostat -v storage muestra una cantidad diferente de espacio usado y llama a diferentes tornillos:
 Pruebe
                        capacity     operations    bandwidth
pool                  used  avail   read  write   read  write
-------------------  -----  -----  -----  -----  -----  -----
storage               652G  2,93T    505     20  61,3M   117K
  mirror              504G  1,29T    504      6  61,3M  39,1K
    gpt/storage0         -      -    495      5  61,5M  39,5K
    gpt/storage3         -      -    495      6  61,5M  39,5K
  mirror              148G  1,64T      0     13   1023  78,2K
    gpt/storage1         -      -      0     10      0  78,6K
    gpt/storage2         -      -      0     10      0  78,6K
-------------------  -----  -----  -----  -----  -----  -----

- gary bunker

vm.kmem_size = "999M"
vm.kmem_size_max = "999M"
vfs.zfs.arc_max = "160M"
vfs.zfs.prefetch_disable = 1
kern.ipc.nsfbufs = 10240 - ryon
Lo mismo:
 
# dd if=/storage/test.file of=/dev/null bs=1000M count=1
1+0 records in
1+0 records out
1048576000 bytes transferred in 13.490830 secs (77725092 bytes/sec)


Kern.ipc.nsfbufs = 10240 no pudo hacerse desde /etc/sysctl.conf o desde /boot/loader.conf, el valor actual es "0". - oren
intenta usar no / dev / ada, pero / dev / ad
leer hardforum.com/showthread.php?t=1546137 - venita
Primero probé un anuncio y lo probé, y solo luego cambié a nuevos controladores.
Este foro lo leyó. Por cierto, me sorprende que el autor de ese tema no haya intentado usar el RAID10 analógico, porque lo considero el más conveniente para las configuraciones de 4 tornillos para una variedad de parámetros.

Además, también probé el servidor agregándole 1 GB de memoria (es decir, un total de 3 GB) y reemplazando el procesador con un Core2Quad.
Aquí está link que publiqué como resultados de prueba y prueba.

Además, intenté probar el Seagate 7200.10 en un servidor de escritorio con Core2Duo y 2GB de memoria de un LiveCD OpenIndiana, y la velocidad también fue bastante baja, alrededor de 40 MB / s. - richard ellis
nicki lewis
prueba sintética: www.phoronix.com/scan.php?page=article&item=zfs_ext4_btrfs&num=3
Pero esto es foronyx. Y la prueba, como es habitual, tiene poco que ver con la realidad)

En general, tengo un servidor con copia de seguridad, copia de seguridad, costos con zfs. Por curiosidad Es completamente innecesario allí. Bueno, parece funcionar, qué más decir, no hay una carga especial allí, no hay apagones, frya no se cuelga.

Me parece que si realmente necesita las ventajas que proporciona zfs, entonces debería ser usado. Si no son muy necesarios, entonces no vale la pena. Todavía es experimental.
También tenemos un servidor de respaldo. ))
El hecho del asunto es que parece no ser completamente experimental, como dicen los desarrolladores. ZFSv14 es totalmente reivindicado como una solución de producción. - ginbquik
, simplemente cualquier UFS + Journal y otros como muletas ya en la etapa de configuración, y ZFS es bastante fácil de configurar y mantener. La posibilidad de ajustar una sección también es muy interesante: puedes modificar algo bajo MySQL. - maria augustina recla
lex huckabay
Utilizo ZFS y FreeBSD 8.1 para un servidor de respaldo (raidz en un paquete de discos de 2TB).
La carga es pequeña (para eso las copias de seguridad), problemas cero.
¿Raidz o raidz2?
¿Y qué tan confiable es en términos de salida, digamos 2 discos al mismo tiempo? - alana himber
raidz. Si dos choques, todo se desdibujará. así como en el espejo clásico de dos discos. o en raid5 - janey
bookmaniac70
He estado probando FreeBSD con ZFS durante aproximadamente un mes como servidor de archivos. Acceso alrededor de 400-800 personas por día. Mientras todos felices. No noto ningún problema en el trabajo. Si en otro mes no hay problemas, coloco ZFS en el servidor de archivos principal, con la esperanza de al menos reducir la carga.
shellie
Chicos, ¿alguien ya ha experimentado la caída de uno de los discos duros del ZFS combinado bajo fryaha?
En Solaris, todo es genial, y se puede confiar en ZFS, pero ¿será tan bueno que suceda en fryahe?
La copia de seguridad es, por supuesto, nuestro todo, pero ante todo, la viabilidad del sistema en caso de que falle uno de los discos es interesante.
para comprobar retirado. en combate, nadie tiene aún que ver :) - brian hird
Utilizo ZFS en un servidor de archivos en modo raidz2 + en varias carretillas en myrror. Dios prohibió raidz, pero en uno de los espejos, el disco murió; se dieron cuenta el tercer día, manipularon uno nuevo: todo funciona como un reloj. Sin pérdida de datos, sin tiempo de inactividad especial;) - jcolli3
paul mcgee
sí, en principio, tolerable. No es para decirlo más rápido (ayuda de archivo), pero obviamente más conveniente.
pat shay
Ejecuto ZFS en FreeBSD 9.0-CURRENT:

raidz2 de 6 discos + disco para el sistema, principalmente almacenamiento de archivos, almacenamiento de torrent y servidor de respaldo ftp raid 1 con carga en ZFS - nginx + php + mysql Disco único ZFS - nginx + php + mysql
Al copiar una gran cantidad de archivos pequeños ~ 30G dentro de un grupo, el sistema comienza a ser contundente.
Pero aquí tenemos que soportar una alta velocidad de E / S o frenos temporales durante el desbordamiento de vfs.zfs.arс ...
chantal roelofsen
No puedo. Pero tampoco hay problema en esto. ¿O es una tarea diaria para alguien?
Entonces, a menos que los niños lo midan: “¡lo hace en media patada!” :)
Pero no es lo mismo, solo LVM en la refriega está algo torcido, y ZFS quiere hacerlo con potencia y principal. Ahora, en el servidor de archivos de copia de seguridad rodado, probaré la velocidad.

Y los niños están rodeados de aquellos que AD configuró en sus Windows con manuales. :( - japdo
Contáctame, si es así. Tengo 15 años de edad con un Solaris y ZFS desde su inicio. También hay un par de FreeBSD con ZFS.
Pero honestamente, en el mundo real, nunca fue necesario "reducir el tamaño de la piscina". Expandir - sí, a menudo. Y en la dirección opuesta, bueno, en una situación hipotéticamente inventada, puede y debe ser. Pero incluso así es más fácil colocar "tornillos más pequeños" y lanzarles una instantánea a través de zfs enviar | zfs recv - celica jones
¡Oh! Muchas gracias :)

¿Por qué reducir? Por ejemplo, en LVM había una matriz de 500 + 750 + 750. 750 comenzó a desmoronarse, pero no hay 750, pero solo hay 500, conectamos 500, pvmove con 750, desconectamos, la matriz se reduce en 750.

¿Cómo puedo manejar esta situación en ZFS? ¿O ya para mendigar y gastar mil dólares u otro en un servidor de archivos doméstico normal? - emerson probst
sarah temple
En la lucha, todo está bien si usas instantáneas.
Esta característica asesina todavía está en ZFS.
shabnam morakabatchian
Un poco oftopik, pero no puedo decir.
Como administrador de un proyecto grande, sería una regla introducir en la empresa solo tecnologías bien probadas y comprobadas, en las que esté bien versado y sobre las que pueda tener una opinión ponderada.
Y el enfoque: "pero, aconséjeme qué tan diferentes son las cosas para mí aquí, y les haré zayuzayu en el calor": esto es un callejón sin salida.
ZFS en x86: demasiado verde para la producción empresarial. ¿Desea ZFS? Lleve el Solarium a T2? Para un negocio web de múltiples hilos: al máximo. Bueno, está claro que necesitas conocer Solaris))).
oh, sí, y además, ZFS ahora bajo un ritmo sin precedentes de Linux pedalirut. Y estoy seguro de que muy pronto, la implementación de Linux superará a la de FreeBSD. Aunque hay algunos "analógicos" nativos - btrfs. - reza
btrfs'u a ZFS como antes la alfa centauria. Solo porque ZFS no es solo FS, sino una gestión completamente nueva de todo esto. - rita wright
Para que las tecnologías hayan sido bien probadas y probadas, necesitan ser revisadas y probadas. Y también para conocer las opiniones de quienes los probaron y probaron. Por eso hice este cuestionario. Y poner Solarium precisamente porque allí ZFS es un sistema nativo, en mi opinión, sin sentido. Sí: nadie va a tomar y usar el caliente de inmediato, por lo que el suelo está "sondeado". En cualquier caso, mi opinión no será completa y subjetiva: no modelaré físicamente todos los problemas posibles, y mientras más personas utilicen el paquete, más estadísticas. Por ahora, ZFS lidera FS para FreeBSD en casi todos los frentes, incluida la velocidad, mientras que la retroalimentación negativa se relacionó principalmente con construcciones inestables. - shawks bell
Los administradores de una empresa almacenan 0.5 millones de dinero verde, con duplicación completa y otras características, y no se disparan. Al mismo tiempo, se aumentará la capitalización del negocio con tales soluciones, mientras que los administradores tendrán menos hemorroides. Por cierto, tampoco les gusta Linux en la empresa, a excepción de los que cuestan dinero (y cuestan Oracle, por ejemplo), pero no hay dudas sobre FreeBSD. Sin embargo, aquí el proyecto es más de telecomunicaciones, y allí los administradores pueden divertirse por diversión, todavía no hay dinero para almacenamiento =) - will van heerden
Me encanta esta pasta y cómo Habr habla con ella: D - normandie hincks
sumaiyya
y ¿cómo es mejor que LVM sobre RAID (1.5) en Linux?
Estas son cosas completamente diferentes y funcionan de una manera completamente diferente y se administran. No mejor, no peor, solo diferente. - cristybutit
Bueno, ¿por qué es diferente? De hecho, ambos son un nivel adicional de abstracción entre el sistema de archivos y la unidad de disco.
 www.unixconsult.org/zfs_vs_lvm.html - aquí están bastante comparados. - amanda callendrier
Esta es una comparación de características. El nivel de abstracción en ZFS es completamente diferente al de fs clásico - james townsend
Bueno, entonces LVM - esto no es f.s. en absoluto más bien gestor de contenedores para f.s. - christy merrell
dave g
Chicos, usaron LVM en Debian, ahora está girando en el fra. Estoy haciendo un servidor de archivos de respaldo, mientras que LVM / ZFS se está utilizando actualmente exclusivamente para combinar discos duros de diferentes tamaños en un disco grande.

¿ZFS realmente no puede reducir el tamaño de la piscina? LVM hace esto en medio ping a través de pvmove. :(

Gracias
becky bell
500 + 750 + 750 - ¿fue este tipo de banda? bueno, raid0 supuestamente todo en un manojo?

Porque si hay un espejo o raidz, entonces se seguirá usando 500 en cada disco (mínimo en el grupo). En este caso, no hay ningún problema, zpool replace bububu
No, no, no, por supuesto no es una raya. Stripe no lo arruinó deliberadamente: le asustaba la LVM siutatsii porque si uno de los discos falla, no solo se perderá la información de él, sino también de los demás.

Y el montón en ZFS para la masa está cegado, sí, "en un montón de todo":
 ad1: 76319MB <Seagate ST380011A 3.06> at ata0-slave UDMA100
ad2: 117245MB <Maxtor 6Y120L0 YAR41BW0> at ata1-master UDMA133
ad3: 152627MB <WDC WD1600JB-00REA0 20.00K20> at ata1-slave UDMA100


Y resultó:
 reserve# zfs list pool
NAME USED AVAIL REFER MOUNTPOINT
pool 388M 332G 388M /pool


En la colección de puertos y sortsy cortar inmediatamente una compresión. Ya estoy empezando a ir positivamente.

Sin embargo, resulta que, por el momento, dejarlo así, y la primera inversión de la casa son cinco o seis discos grandes e idénticos para raidz3, que se promete en v28 FreeBSD. Mientras tanto, intento un 8.2 v14 normal de la caja. - jessikitty
andrew patton
Con un "grupo", la pregunta es diferente :) Puedo sugerirle cómo tratar todo este zpool {agregar, reemplazar, adjuntar, separar, en línea, sin conexión}.

Cree varios archivos (pueden ser de diferentes tamaños, en las proporciones que sean interesantes).
Y haga zpool _ de estos archivos_ :) zpool cree testpool / ruta / a / archivo10G / ruta / a / archivo20G / ruta / a / archivo20G
Bueno, intente "desenganchar el disco" de la agrupación, "enganchar atrás", "desconectar", volver a "en línea", reemplazar uno a otro. Y mira la práctica, lo que puedes hacer, lo que no vas a permitir. No rompa nada, información 100% :) Y no se necesitan tornillos en absoluto.
Gracias. :)

Acabo de tener estos tornillos para la prueba. Ahora romperé el espacio restante en el disco del sistema, ataré más tornillos, todos a diferentes sistemas de archivos, por ejemplo, y comenzaré una distorsión total con la grabación de todas las acciones en un cuaderno.

Increíblemente interesante esta ZFS, por cierto. - dylan quarles
& gt; Una cosa increíblemente interesante sobre este ZFS, por cierto

Tengo un grupo de aproximadamente 16 terabytes en los que miles y tres y medio de los sistemas de archivos se han cortado en rodajas :) - kathy
La prueba de falla de energía con dos movimientos paralelos fue exitosa. Fantastish. La relación de compresión en puertos + ordena 2.39h. Fantastish. Onseflay.

Ahora realmente quiero aumentar el mismo grupo en aproximadamente el mismo terabyte en el hardware moderno. ¡Esto es sólo una bomba! De hecho, como se prometió en el artículo, la administración de particiones se ha vuelto tan fácil como administrar directorios. ¿Y por qué inventé geom concat y lvm antes, cuando zfs en el fra es de la séptima rama? ... - christa hogan
Por cierto, ¿hay alguna razón para enrollar el futuro servidor por el ZFS nativo en diesel? O v28 y en fre ok? - leanda
& gt; La prueba de fallo de alimentación con dos movimientos paralelos pasados ​​con éxito
Copia en escritura, metadatos atómicos, blablabla :)

& gt; Relación de compresión en puertos + ordenes 2.39x
y allí, en principio, todavía hay bolígrafos para los que puedes torcer :)

& gt; La administración de particiones es tan fácil como administrar directorios.
sí, tengo en ftp cada usuario en el sistema de archivos, en lugar de un directorio :) nafig necesita cuotas de ftpd, ¿cuándo puedo cortarlo directamente en el sistema de archivos? :)

y en Solaris, zfs {sharenfs, sharesmb, shareiscsi} todavía dependen de todos estos tots, que no están en freebsd :) - rosie frascella
Acerca de los metadatos atómicos, pero ¿qué hay de verificar y arreglar los sistemas de archivos?

Acerca de los bolígrafos: honestamente, mi cabeza está girando en el número de bolígrafos del manual. :))

Acerca de la gestión de particiones y de cada una para FS: esto es una consecuencia de la ideología de zfs, ¿verdad? :) Resulta que resulta un tipo de ideología muy libre, un par de equipos deciden todo, buscando una trampa, maldita sea. :))

Ya leí sobre zfs {sharenfs, sharesmb, shareiscsi}. Y ahora subo los tres puertos, maldita sea. :)))) - uht
& gt; ¿Cómo revisar y reparar sistemas de archivos?
Nada :) De repente :)

& gt; esto es una consecuencia de la ideología de zfs, ¿verdad?
Derecho

& gt; Y ahora levanto los tres puertos, maldita sea.
¿Y funcionará en bsd? En mi opinión, estos comandos en el puerto en freebsd simplemente no están implementados. Bueno, tal vez sharenfs excepto. Aunque no he mirado durante mucho tiempo lo que portaron allí, no había estado allí antes. - elizabeth nguyen
No, no, me has entendido mal. Estableció samba, iscsi-target y herramientas para nfs vertidas en el núcleo. :) - pandaib
Y no entendí, ¿cómo no hay nada que verificar? - kelly irish
Bueno, este es un calicó completamente diferente :) No relacionado con ZFS, se configura por separado, ya que los atributos que se configuran a través de zfs set shareiscsi = on no prestan atención. En Solaris, todo es más transparente. - paul blumer
Sí, eso es todo. No hay necesidad de comprobar allí. Se comprueba a sí mismo. Hay un zfs set checksum = on (habilitado de forma predeterminada). Hay zfs establecer copias = N (al menos cien, si el lugar no lo siente). Y espejo o raidz se restauran automáticamente, si hay algo (y desde dónde) para restaurar. ¿Qué hacen ahora fsck en ext3 y ufs c softupdates? ¿Rodar sobre una revista? ZFS lo rodará por sí mismo cuando se levante el grupo.

En caso de duda, puede forzar un scrub de zpool en mysuperpuperpool. - alison gettler
Por supuesto, pero ¿qué hacer? :) A menos que se descargue x86 Solaris.
Mientras tanto, conduzca en U3 virtual. - regina ligon
raechelle
Tengo mucho más solaris que bsd, así que aquí soy un mal consejero :) Me sería más fácil hacer otra caja de solaris. Pero para una persona no preparada, puede haber algo más con una compilación de software típico (aunque hay pbsg de netbsd, considere los mismos puertos, o el sistema operativo en general, no necesita compilar nada).

Bueno, la instalación del sistema operativo mínimo (algo así como el Sistema Base en FreeBSD, a unos 200 metros sin demasiada basura) también requerirá una cierta cantidad de perseverancia y un deseo de "resolverlo". Bueno, o como una opción: OpenSolaris en la instalación predeterminada, pero esto es 4 gigabytes "todos en una fila" junto con X y otras tripas.
El deseo de comprender está presente desde el nacimiento. Y luego no haría esta curiosidad por el bien de eso, no soy un administrador, sería un dislocador. :)

Dos discos me enviaron hace mucho tiempo: 11/06 Sistema operativo Solaris 10. Uno, por supuesto, para el Spark, pero el segundo dividyuk para nuestro x86. Es - lauren hough
Es adecuado para bezrybe, aunque es demasiado antiguo (11/06 - esto es noviembre de 2006, todavía se llama "U3"). Recomiendo buscar en Solaris 10 10/09 (el llamado "U8"). Este es el último lanzamiento de Sun puro, antes de que Orakl comprara el SamyManCommit más importante: cambio de copyright de © Sun a (c) Oracle :) y cambió el EULA a su gusto exclusivo.

El archivo se llamará sol-10-u8-ga-x86-dvd.iso (md5 9df7fd02d82976fd3ec38a18d1a57335). Tome alrededor de link. - katherine williams
Megascabo, maldita sea! :)

Ahora voy a preguntar a amigos con gruesa imagen de internet zafetchit. :) - tamra king
suzze tiernan
Pero, ¿cómo terminó todo? También interesado en cómo ZFS vivirá en FreeBSD
Gracias
Todo funciona bien, hemos estado poniendo servidores y VDS - soheil ghassemi
durante varios años, ¿hay algún matiz? cadenas de tipo de pila en /etc/sysctl.conf? - summerscent
sí no, se recomienda cargar zfs en una línea y eso es todo si se requiere una afinación especial. En los diez primeros puestos, ya puede instalar directamente desde el instalador en ZFS. - james vernon
laura lagassee
Han pasado tres años. Comparte tu experiencia?
Mucho mejor en operación que UFS2, más confiable.
De las desventajas, necesitamos conocimientos y recursos para ajustar el alto rendimiento. - jennifer phelps
uso activo, vuelo normal) - pirateheather
¿SSD no está utilizando con ZFS? - ashling