xfs + raid5
Jan Derfinak
ja na mail.upjs.sk
Sobota Březen 6 18:32:28 CET 2004
On Fri, 5 Mar 2004, Jan Hradil wrote:
> Mar 4 12:01:23 brain kernel: raid5: switching cache buffer size, 4096
> --> 512
> Mar 4 12:01:23 brain kernel: raid5: switching cache buffer size, 512
> --> 4096
XFS ma zapisy meta dat o velkosti sektoru co je default 512. Zapisy dat su o
velkosti bloku co je default 4096. SW RAID Vas o tejto skutocnosti
informuje. Je mozne odstranit to vytvorenim FS, ktory bude mat velkost
sektoru = velkosti bloku.
> Mar 4 18:15:46 brain kernel: xfs_inotobp: xfs_imap() returned an error
> 22 on md(9,0). Returning error.
> Mar 4 18:15:46 brain kernel: xfs_iunlink_remove: xfs_inotobp()
> returned an error 22 on md(9,0). Returning error.
> Mar 4 18:15:46 brain kernel: xfs_inactive: xfs_ifree() returned an
> error = 22 on md(9,0)
> Mar 4 18:15:46 brain kernel: xfs_force_shutdown(md(9,0),0x1) called
> from line 1844 of file xfs_vnodeops.c. Return address = 0xc2ae1ff0
> Mar 4 18:15:46 brain kernel: raid5: switching cache buffer size, 4096
> --> 512
> Mar 4 18:15:46 brain kernel: Filesystem "md(9,0)": I/O Error Detected.
> Shutting down filesystem: md(9,0)
> Mar 4 18:15:46 brain kernel: Please umount the filesystem, and rectify
> the problem(s)
Tu Vas xfs informuje, ze nemohlo dokoncit operacie z dovodu chyby na
disku a na zaklade toho odpojilo FS (co je akysi sposob ochrany FS).
Osobne ma pocit, ze by to mohla byt nejaka HW chyba (pamat...) alebo nejaka
chyba v SW RAIDe (mam pocit, ze sa tam nieco v poslednych 2.4 kerneloch
opravovalo). Pomocou xfs_check si mozte overit, ci je potrebne opravovat FS.
>
> System: Suse 8.1 z ftp, jen originalni baliky.
Mate posledny update jadra? Aku verziu tam mate?
jano
--
Další informace o konferenci Linux