• Sous-forumsNAS
  • Recherche de l'aide pour récupérer les données d'un NAS

Non en principe l'affaire est réglé. Il est probable qu'il est en train de resynchroniser le disque ajouté. Tu peux toujours vérifier le statut avec
sudo mdadm -D /dev/md0
Génial !! 🙂
/dev/md0:
           Version : 1.2
     Creation Time : Fri Sep 27 08:36:12 2013
        Raid Level : raid5
        Array Size : 5851063296 (5580.01 GiB 5991.49 GB)
     Used Dev Size : 2925531648 (2790.00 GiB 2995.74 GB)
      Raid Devices : 3
     Total Devices : 3
       Persistence : Superblock is persistent

       Update Time : Sat Jun 22 17:42:11 2019
             State : clean, degraded, recovering 
    Active Devices : 2
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 1

            Layout : left-symmetric
        Chunk Size : 64K

Consistency Policy : resync

    Rebuild Status : 2% complete

              Name : Impa:2
              UUID : a6ffe45c:9b35a893:36b08cd9:58d31f60
            Events : 815160

    Number   Major   Minor   RaidDevice State
       2       8       69        0      active sync   /dev/sde5
       1       8       53        1      active sync   /dev/sdd5
       3       8        5        2      spare rebuilding   /dev/sda5
J'avais prévu un 6To sur la partie Windows 10, en NTFS, pour copier tout ce que je pouvais récupérer faire le ménage, formater les disques et les remettre dans le NAS.
Il est préférable que j'attende que le Rebuild Status = 100%

Ensuite, je peux monter le disque de 6To et voir son contenu mais je ne peux pas y écrire pour ensuite tout retrouver sous Windows... Tu peux m'aider ?

Encore merci,
Claude
Il est préférable que j'attende que le Rebuild Status = 100%
Rien n'empêche de travailler pendant qu'il reconstruit :
Le raid est entre autre une solution de haute disponibilité => Pas d'interruption de service pour un seul disque en panne
En revanche et contrairement à ce que beaucoup pensent, ce n'est PAS une solution de sauvegarde !
Ensuite, je peux monter le disque de 6To et voir son contenu mais je ne peux pas y écrire pour ensuite tout retrouver sous Windows... Tu peux m'aider ?
Tu ne peux pas écrire. Mais encore ? Il y une erreur de type "non autorisé..."
Je pensais au départ effectivement que c'était pour de la sauvegarde et c'est ma seconde panne, mais je vais tout de même continuer de l'utiliser, il me sert aussi à accéder à mes vidéos et la musique...

Lorsque je copie un fichier de dev/dm-0, j’essaie de le coller sur le disque NTFS et l'option "coller" est grisé.
J'ai tenté le drag & drop mais le fichier revient vers la source
J'ai tenté "copier vers" et j'ai ce message: "la destination est en lecture seule"

Merci,
Claude

Je comprends bien le message mais je ne sais pas quoi faire, j'avais tenté d'accorder full control à everyone depuis Windows mais il me semble que ça n'avait pas aidé.
j'avais tenté d'accorder full control à everyone depuis Windows mais il me semble que ça n'avait pas aidé.
Effectivement c'est sans effet, car linux ne connait rien à la gestion de droit NTFS. linux attribut des droits d'accès globalement à tous les fichiers dans une partition NTFS donnée

Mais "la destination est en lecture seule" c'est un autre problème.
que donnes
sudo mount -v /dev/sdf1 /mnt
Aah! Il est bien ce message:
~$ sudo mount -v /dev/sdf1 /mnt
The disk contains an unclean file system (0, 0).
Metadata kept in Windows cache, refused to mount.
Falling back to read-only mount because the NTFS partition is in an
unsafe state. Please resume and shutdown Windows fully (no hibernation
or fast restarting.)
Il est fort ce Linux! 🙂
Je vais éteindre et regarder les options de fast restarting pour les désactiver.

Claude
Bonsoir,
Désactiver le démarrage rapide a fonctionné! Je peux maintenant transférer des fichiers de Ubuntu vers Windows !

Par-contre, je ne trouve plus /dev/md0 !!!
~$ sudo mdadm -D /dev/md0
mdadm: cannot open /dev/md0: No such file or directory
J'ai essayé cette commande:
~$ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md3 : active raid1 sda6[1] sde6[0]
      976646528 blocks super 1.2 [2/2] [UU]
unused devices: <none>
~$ sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
  SIZE NAME    FSTYPE        LABEL              MOUNTPOINT
140,7M loop0   squashfs                         /snap/gnome-3-26-1604/74
151,2M loop1   squashfs                         /snap/gnome-3-28-1804/55
  3,7M loop2   squashfs                         /snap/gnome-system-monitor/57
   13M loop3   squashfs                         /snap/gnome-characters/139
 34,6M loop4   squashfs                         /snap/gtk-common-themes/818
140,7M loop5   squashfs                         /snap/gnome-3-26-1604/86
 89,3M loop6   squashfs                         /snap/core/6673
 88,4M loop7   squashfs                         /snap/core/6964
140,7M loop8   squashfs                         /snap/gnome-3-26-1604/82
    4M loop9   squashfs                         /snap/gnome-calculator/406
 14,8M loop10  squashfs                         /snap/gnome-characters/284
  2,3M loop11  squashfs                         /snap/gnome-calculator/260
   91M loop12  squashfs                         /snap/core/6350
 53,7M loop13  squashfs                         /snap/core18/941
 1008K loop14  squashfs                         /snap/gnome-logs/61
 35,3M loop15  squashfs                         /snap/gtk-common-themes/1198
  151M loop16  squashfs                         /snap/gnome-3-28-1804/36
 14,8M loop17  squashfs                         /snap/gnome-characters/254
  3,7M loop18  squashfs                         /snap/gnome-system-monitor/77
  3,7M loop19  squashfs                         /snap/gnome-system-monitor/87
 53,7M loop20  squashfs                         /snap/core18/970
 14,5M loop21  squashfs                         /snap/gnome-logs/45
  5,5T sda                                      
  2,4G ├─sda1  linux_raid_me                    
    2G ├─sda2  linux_raid_me                    
  2,7T ├─sda5  linux_raid_me Impa:2             
931,4G ├─sda6  linux_raid_me Impa:3             
931,4G │ └─md3 LVM2_member                      
  1,8T └─sda7                                   
447,1G sdb                                      
  500M ├─sdb1  ntfs          Réservé au système 
411,2G ├─sdb2  ntfs                             
  474M ├─sdb3  ntfs                             
    1K ├─sdb4                                   
 14,3G ├─sdb5  ext4                             /
  7,6G ├─sdb6  swap                             [SWAP]
 13,1G └─sdb7  ext4                             /home
  2,7T sdc                                      
  2,4G ├─sdc1  linux_raid_me                    
    2G ├─sdc2  linux_raid_me                    
  2,7T └─sdc5  linux_raid_me Impa:2             
  2,7T sdd                                      
  2,4G ├─sdd1  linux_raid_me                    
    2G ├─sdd2  linux_raid_me                    
  2,7T └─sdd5  linux_raid_me Impa:2             
  3,7T sde                                      
  2,4G ├─sde1  linux_raid_me                    
    2G ├─sde2  linux_raid_me                    
  2,7T ├─sde5  linux_raid_me Impa:2             
931,4G └─sde6  linux_raid_me Impa:3             
931,4G   └─md3 LVM2_member                      
  5,5T sdf                                      
  5,5T └─sdf1  ntfs                             /media/lordofhyrule/B65A4E315A4D
Quel peut bien être le problème ??

Claude
Déjà il faut savoir que le nom du device attribué n'est pas fixe. J'ai utilisé md0 parce qu'il était dispo à ce moment. Mais il n'est pas dis que c'est ce nom de périphérique qui sera attribué au démarrage.
Le nom fixe c'est l'uuid (a6ffe45c:9b35a893:36b08cd9:58d31f60) ou le nom (Impa:2) attribué à la grappe raid

quoiqu'il en soit l'assemblage a échoué lors du démarrage, probablement à cause de l'intru sdc5 qui est associé à tord à la grappe Impa:2

Je regarde la meilleurs façon de se débarrasser de ce pbm.
Voilà
sudo mdadm --zero-superblock /dev/sdc5
sudo ls /dev/md
Pas de chance 🙁
J'ai redémarré, je ne vois pas de /dev/md dans Ordinateur ou autres emplacements.
J'ai lancé ces commandes..;
~$ sudo ls /dev/md
3
~$ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md3 : active raid1 sda6[1] sde6[0]
      976646528 blocks super 1.2 [2/2] [UU]
unused devices: <none>
~$ sudo mdadm -D /dev/md0
mdadm: cannot open /dev/md0: No such file or directory
~$ sudo mdadm -D /dev/md1
mdadm: cannot open /dev/md1: No such file or directory
~$ sudo mdadm -D /dev/md2
mdadm: cannot open /dev/md2: No such file or directory
~$ sudo mdadm -D /dev/md4
mdadm: cannot open /dev/md4: No such file or directory
~$ sudo mdadm -D /dev/md5
mdadm: cannot open /dev/md5: No such file or directory
~$ sudo mdadm -D /dev/md3
/dev/md3:
           Version : 1.2
     Creation Time : Mon Aug 27 20:08:31 2018
        Raid Level : raid1
        Array Size : 976646528 (931.40 GiB 1000.09 GB)
     Used Dev Size : 976646528 (931.40 GiB 1000.09 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Wed Nov 21 23:47:09 2018
             State : clean 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

              Name : Impa:3
              UUID : 216bb0ff:a54f2520:756c7c1a:8916c2bd
            Events : 2

    Number   Major   Minor   RaidDevice State
       0       8       70        0      active sync   /dev/sde6
       1       8        6        1      active sync   /dev/sda6
Claude
La chance n'a pas grand chose à voir la-dedans. Mais la méthode...
Et la tu m'as perdu. On refait un petit tour de
sudo lsblk -o size,name,fstype,label,mountpoint,uuid
:~$ sudo lsblk -o size,name,fstype,label,mountpoint,uuid
  SIZE NAME FSTYPE LABEL       MOUNTPOINT UUID
 34,6M loop0
            squash             /snap/gtk- 
 53,7M loop1
            squash             /snap/core 
 14,8M loop2
            squash             /snap/gnom 
140,7M loop3
            squash             /snap/gnom 
   91M loop4
            squash             /snap/core 
151,2M loop5
            squash             /snap/gnom 
  151M loop6
            squash             /snap/gnom 
 1008K loop7
            squash             /snap/gnom 
 35,3M loop8
            squash             /snap/gtk- 
 14,5M loop9
            squash             /snap/gnom 
 89,3M loop10
            squash             /snap/core 
140,7M loop11
            squash             /snap/gnom 
    4M loop12
            squash             /snap/gnom 
 88,4M loop13
            squash             /snap/core 
  3,7M loop14
            squash             /snap/gnom 
  2,3M loop15
            squash             /snap/gnom 
  3,7M loop16
            squash             /snap/gnom 
 14,8M loop17
            squash             /snap/gnom 
 53,7M loop18
            squash             /snap/core 
  3,7M loop19
            squash             /snap/gnom 
   13M loop20
            squash             /snap/gnom 
140,7M loop21
            squash             /snap/gnom 
  5,5T sda                                
  2,4G ├─sda1
       │    linux_                        6019b9bf-8704-2121-3017-a5a8c86610be
    2G ├─sda2
       │    linux_                        70e0ad02-b676-c010-53b4-b6a1ad85ad9a
  2,7T ├─sda5
       │    linux_ Impa:2                 a6ffe45c-9b35-a893-36b0-8cd958d31f60
931,4G ├─sda6
       │    linux_ Impa:3                 216bb0ff-a54f-2520-756c-7c1a8916c2bd
931,4G │ └─md3
       │    LVM2_m                        r3ibpL-ImBI-1j1X-V989-92wt-TRu3-0IRbmg
  1,8T └─sda7
                                          
447,1G sdb                                
  500M ├─sdb1
       │    ntfs   Réservé au système
       │                                  2670359B703572A3
411,2G ├─sdb2
       │    ntfs                          523A48993A487BCB
  474M ├─sdb3
       │    ntfs                          FE8463FE8463B7B3
    1K ├─sdb4
       │                                  
 14,3G ├─sdb5
       │    ext4               /          2ed21c62-0c8b-4aa9-b60a-0760c7e89acb
  7,6G ├─sdb6
       │    swap               [SWAP]     2d5d60a5-b7d2-4965-a34f-47383287c55f
 13,1G └─sdb7
            ext4               /home      94f52561-1f9c-408b-b628-4f07d682571e
  2,7T sdc                                
  2,4G ├─sdc1
       │    linux_                        6019b9bf-8704-2121-3017-a5a8c86610be
    2G ├─sdc2
       │    linux_                        70e0ad02-b676-c010-53b4-b6a1ad85ad9a
  2,7T └─sdc5
                                          
  2,7T sdd                                
  2,4G ├─sdd1
       │    linux_                        6019b9bf-8704-2121-3017-a5a8c86610be
    2G ├─sdd2
       │    linux_                        70e0ad02-b676-c010-53b4-b6a1ad85ad9a
  2,7T └─sdd5
            linux_ Impa:2                 a6ffe45c-9b35-a893-36b0-8cd958d31f60
  3,7T sde                                
  2,4G ├─sde1
       │    linux_                        6019b9bf-8704-2121-3017-a5a8c86610be
    2G ├─sde2
       │    linux_                        70e0ad02-b676-c010-53b4-b6a1ad85ad9a
  2,7T ├─sde5
       │    linux_ Impa:2                 a6ffe45c-9b35-a893-36b0-8cd958d31f60
931,4G └─sde6
            linux_ Impa:3                 216bb0ff-a54f-2520-756c-7c1a8916c2bd
931,4G   └─md3
            LVM2_m                        r3ibpL-ImBI-1j1X-V989-92wt-TRu3-0IRbmg
  5,5T sdf                                
  5,5T └─sdf1
            ntfs                          B65A4E315A4DEEA5
Bon le sdc5 a bien été nettoyé. On refait un assemblage manuel
sudo mdadm --assemble -v  /dev/md0 /dev/sd[ade]5
Si ça échoue donne
sudo mdadm -E /dev/sd[ade]5
sinon
sudo mdadm -D /dev/md0
Super ! Merci !!
~$ sudo mdadm --assemble -v  /dev/md0 /dev/sd[ade]5
mdadm: looking for devices for /dev/md0
mdadm: /dev/sda5 is identified as a member of /dev/md0, slot 2.
mdadm: /dev/sdd5 is identified as a member of /dev/md0, slot 1.
mdadm: /dev/sde5 is identified as a member of /dev/md0, slot 0.
mdadm: added /dev/sdd5 to /dev/md0 as 1
mdadm: added /dev/sda5 to /dev/md0 as 2
mdadm: added /dev/sde5 to /dev/md0 as 0
mdadm: /dev/md0 has been started with 2 drives (out of 3) and 1 rebuilding.
~$ sudo mdadm -D /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Fri Sep 27 08:36:12 2013
        Raid Level : raid5
        Array Size : 5851063296 (5580.01 GiB 5991.49 GB)
     Used Dev Size : 2925531648 (2790.00 GiB 2995.74 GB)
      Raid Devices : 3
     Total Devices : 3
       Persistence : Superblock is persistent

       Update Time : Sat Jun 22 18:47:03 2019
             State : clean, degraded, recovering 
    Active Devices : 2
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 1

            Layout : left-symmetric
        Chunk Size : 64K
Consistency Policy : resync
    Rebuild Status : 20% complete
              Name : Impa:2
              UUID : a6ffe45c:9b35a893:36b08cd9:58d31f60
            Events : 815175

    Number   Major   Minor   RaidDevice State
       2       8       69        0      active sync   /dev/sde5
       1       8       53        1      active sync   /dev/sdd5
       3       8        5        2      spare rebuilding   /dev/sda5

🙂
Du coup je ne sais pas trop pourquoi il n'a pas redémarré automatiquement la grappe, si la remise à zéro avait bien été faite avant le redémarrage.
Quoi qu'il ne soit, je te conseille d'éviter d'arrêter le pc tant qu'il n'a pas fini la reconstruction de sda5.

Et si le problème d'assemblage persiste, n'hésite pas à me relancer...
Ahh!!

Il s'est passé un truc...
lordofhyrule@Beaver:~$ sudo mdadm -D /dev/md0
[sudo] Mot de passe de lordofhyrule : 
/dev/md0:
           Version : 1.2
     Creation Time : Fri Sep 27 08:36:12 2013
        Raid Level : raid5
        Array Size : 5851063296 (5580.01 GiB 5991.49 GB)
     Used Dev Size : 2925531648 (2790.00 GiB 2995.74 GB)
      Raid Devices : 3
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Sat Jun 22 23:39:02 2019
             State : clean, degraded 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 64K

Consistency Policy : resync

              Name : Impa:2
              UUID : a6ffe45c:9b35a893:36b08cd9:58d31f60
            Events : 815276

    Number   Major   Minor   RaidDevice State
       2       8       69        0      active sync   /dev/sde5
       1       8       53        1      active sync   /dev/sdd5
       -       0        0        2      removed
J'étais en train de copier un dossier vers le disque ntfs... c'est peut être de ma faute.
D'un autre coté, si je récupère mes données ça me va...

Merci.
Non le fait de copier un fichier n'a rien à voir. Le disque a du carrément se déconnecter pour passer en "removed" directement
Que donne
sudo dmesg | tail -n 50
~$ sudo dmesg | tail -n 50
[ 4971.188439] sd 0:0:0:0: [sda] FAILED Result: hostbyte=DID_NO_CONNECT driverbyte=DRIVER_OK
[ 4971.188440] sd 0:0:0:0: [sda] CDB: Write(16) 8a 00 00 00 00 00 77 17 7f b8 00 00 05 40 00 00
[ 4971.188441] print_req_error: I/O error, dev sda, sector 1998028728
[ 4971.188477] ata1.00: detaching (SCSI 0:0:0:0)
[ 4971.188598] sd 2:0:0:0: [sdc] Synchronizing SCSI cache
[ 4971.188617] sd 2:0:0:0: [sdc] Synchronize Cache(10) failed: Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK
[ 4971.188617] sd 2:0:0:0: [sdc] Stopping disk
[ 4971.188621] sd 2:0:0:0: [sdc] Start/Stop Unit failed: Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK
[ 4971.193546] sd 0:0:0:0: [sda] Synchronizing SCSI cache
[ 4971.193571] sd 0:0:0:0: [sda] Synchronize Cache(10) failed: Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK
[ 4971.193572] sd 0:0:0:0: [sda] Stopping disk
[ 4971.193577] sd 0:0:0:0: [sda] Start/Stop Unit failed: Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK
[ 4971.197343] md: super_written gets error=10
[ 4971.197348] md/raid:md0: Disk failure on sda5, disabling device.
               md/raid:md0: Operation continuing on 2 devices.
[ 4971.197366] print_req_error: I/O error, dev sda, sector 1998195384
[ 4971.281023] md: md0: recovery interrupted.
[ 4975.804542] md/raid1:md3: Disk failure on sda6, disabling device.
               md/raid1:md3: Operation continuing on 1 devices.
[ 5022.033989] ata4: SATA link up 6.0 Gbps (SStatus 133 SControl 300)
[ 5022.312191] ata4.00: configured for UDMA/133
[ 5023.077953] ata3: link is slow to respond, please be patient (ready=0)
[ 5023.417939] ata1: link is slow to respond, please be patient (ready=0)
[ 5027.054000] ata3: SATA link up 6.0 Gbps (SStatus 133 SControl 300)
[ 5027.245657] ata3.00: ATA-9: WDC WD30EFRX-68AX9N0, 80.00A80, max UDMA/133
[ 5027.245659] ata3.00: 5860533168 sectors, multi 0: LBA48 NCQ (depth 32), AA
[ 5027.246433] ata3.00: configured for UDMA/133
[ 5027.246564] scsi 2:0:0:0: Direct-Access     ATA      WDC WD30EFRX-68A 0A80 PQ: 0 ANSI: 5
[ 5027.246792] sd 2:0:0:0: Attached scsi generic sg0 type 0
[ 5027.246804] sd 2:0:0:0: [sda] 5860533168 512-byte logical blocks: (3.00 TB/2.73 TiB)
[ 5027.246805] sd 2:0:0:0: [sda] 4096-byte physical blocks
[ 5027.246816] sd 2:0:0:0: [sda] Write Protect is off
[ 5027.246818] sd 2:0:0:0: [sda] Mode Sense: 00 3a 00 00
[ 5027.246845] sd 2:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
[ 5027.321346]  sda: sda1 sda2 sda5
[ 5027.321801] sd 2:0:0:0: [sda] Attached SCSI disk
[ 5027.678006] ata1: COMRESET failed (errno=-16)
[ 5030.390071] ata1: SATA link up 6.0 Gbps (SStatus 133 SControl 300)
[ 5030.543171] ata1.00: ATA-9: WDC WD60EFRX-68L0BN1, 82.00A82, max UDMA/133
[ 5030.543173] ata1.00: 11721045168 sectors, multi 0: LBA48 NCQ (depth 32), AA
[ 5030.543917] ata1.00: configured for UDMA/133
[ 5030.543990] scsi 0:0:0:0: Direct-Access     ATA      WDC WD60EFRX-68L 0A82 PQ: 0 ANSI: 5
[ 5030.544162] sd 0:0:0:0: Attached scsi generic sg2 type 0
[ 5030.544182] sd 0:0:0:0: [sdc] 11721045168 512-byte logical blocks: (6.00 TB/5.46 TiB)
[ 5030.544184] sd 0:0:0:0: [sdc] 4096-byte physical blocks
[ 5030.544196] sd 0:0:0:0: [sdc] Write Protect is off
[ 5030.544197] sd 0:0:0:0: [sdc] Mode Sense: 00 3a 00 00
[ 5030.544212] sd 0:0:0:0: [sdc] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
[ 5030.595980]  sdc: sdc1 sdc2 sdc5 sdc6 sdc7
[ 5030.596352] sd 0:0:0:0: [sdc] Attached SCSI disk
Oui il s'est déconnecté, mais il faudrait voir si dans les messages précédents on en apprend pas un peu plus
sudo dmesg | tail -n 100 | head -n 50
~$ sudo dmesg | tail -n 100 | head -n 50
[ 4971.187765] sd 0:0:0:0: rejecting I/O to offline device
[ 4971.187798] sd 0:0:0:0: rejecting I/O to offline device
[ 4971.187831] sd 0:0:0:0: rejecting I/O to offline device
[ 4971.187865] sd 0:0:0:0: rejecting I/O to offline device
[ 4971.187899] sd 0:0:0:0: rejecting I/O to offline device
[ 4971.187932] sd 0:0:0:0: rejecting I/O to offline device
[ 4971.187966] sd 0:0:0:0: rejecting I/O to offline device
[ 4971.188000] sd 0:0:0:0: rejecting I/O to offline device
[ 4971.188061] sd 0:0:0:0: [sda] tag#3 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
[ 4971.188065] sd 0:0:0:0: [sda] tag#3 Sense Key : Illegal Request [current] 
[ 4971.188068] sd 0:0:0:0: [sda] tag#3 Add. Sense: Unaligned write command
[ 4971.188072] sd 0:0:0:0: [sda] tag#3 CDB: Write(16) 8a 00 00 00 00 00 77 17 60 38 00 00 05 40 00 00
[ 4971.188075] print_req_error: I/O error, dev sda, sector 1998020664
[ 4971.188127] sd 0:0:0:0: [sda] tag#4 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
[ 4971.188129] sd 0:0:0:0: [sda] tag#4 Sense Key : Illegal Request [current] 
[ 4971.188130] sd 0:0:0:0: [sda] tag#4 Add. Sense: Unaligned write command
[ 4971.188131] sd 0:0:0:0: [sda] tag#4 CDB: Write(16) 8a 00 00 00 00 00 77 17 65 78 00 00 05 40 00 00
[ 4971.188132] print_req_error: I/O error, dev sda, sector 1998022008
[ 4971.188185] sd 0:0:0:0: [sda] tag#5 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
[ 4971.188186] sd 0:0:0:0: [sda] tag#5 Sense Key : Illegal Request [current] 
[ 4971.188188] sd 0:0:0:0: [sda] tag#5 Add. Sense: Unaligned write command
[ 4971.188190] sd 0:0:0:0: [sda] tag#5 CDB: Write(16) 8a 00 00 00 00 00 77 17 6a b8 00 00 05 40 00 00
[ 4971.188191] print_req_error: I/O error, dev sda, sector 1998023352
[ 4971.188265] sd 0:0:0:0: [sda] tag#6 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
[ 4971.188266] sd 0:0:0:0: [sda] tag#6 Sense Key : Illegal Request [current] 
[ 4971.188268] sd 0:0:0:0: [sda] tag#6 Add. Sense: Unaligned write command
[ 4971.188270] sd 0:0:0:0: [sda] tag#6 CDB: Write(16) 8a 00 00 00 00 00 77 17 6f f8 00 00 05 40 00 00
[ 4971.188271] print_req_error: I/O error, dev sda, sector 1998024696
[ 4971.188329] sd 0:0:0:0: [sda] tag#7 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
[ 4971.188330] sd 0:0:0:0: [sda] tag#7 Sense Key : Illegal Request [current] 
[ 4971.188331] sd 0:0:0:0: [sda] tag#7 Add. Sense: Unaligned write command
[ 4971.188332] sd 0:0:0:0: [sda] tag#7 CDB: Write(16) 8a 00 00 00 00 00 77 17 75 38 00 00 05 40 00 00
[ 4971.188333] print_req_error: I/O error, dev sda, sector 1998026040
[ 4971.188380] sd 0:0:0:0: [sda] tag#8 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
[ 4971.188381] sd 0:0:0:0: [sda] tag#8 Sense Key : Illegal Request [current] 
[ 4971.188382] sd 0:0:0:0: [sda] tag#8 Add. Sense: Unaligned write command
[ 4971.188383] sd 0:0:0:0: [sda] tag#8 CDB: Write(16) 8a 00 00 00 00 00 77 17 7a 78 00 00 05 40 00 00
[ 4971.188384] print_req_error: I/O error, dev sda, sector 1998027384
[ 4971.188415] ata1: EH complete
[ 4971.188439] sd 0:0:0:0: [sda] FAILED Result: hostbyte=DID_NO_CONNECT driverbyte=DRIVER_OK
[ 4971.188440] sd 0:0:0:0: [sda] CDB: Write(16) 8a 00 00 00 00 00 77 17 7f b8 00 00 05 40 00 00
[ 4971.188441] print_req_error: I/O error, dev sda, sector 1998028728
[ 4971.188477] ata1.00: detaching (SCSI 0:0:0:0)
[ 4971.188598] sd 2:0:0:0: [sdc] Synchronizing SCSI cache
[ 4971.188617] sd 2:0:0:0: [sdc] Synchronize Cache(10) failed: Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK
[ 4971.188617] sd 2:0:0:0: [sdc] Stopping disk
[ 4971.188621] sd 2:0:0:0: [sdc] Start/Stop Unit failed: Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK
[ 4971.193546] sd 0:0:0:0: [sda] Synchronizing SCSI cache
[ 4971.193571] sd 0:0:0:0: [sda] Synchronize Cache(10) failed: Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK
[ 4971.193572] sd 0:0:0:0: [sda] Stopping disk